Final theses studies

Anzahl der Treffer: 721
Erstellt: Sun, 30 Jun 2024 17:02:33 +0200 in 0.0472 sec


Henne, Alexander;
Untersuchung und Einordnung ausgewählter Bildmerkmale und Ähnlichkeitsmaße für den Einsatz in der Stereoskopie mithilfe eines bildverarbeitenden neuronalen Netzes. - Ilmenau. - 50 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die stereoskopische Bildverarbeitung zur 3D-Bilddatengewinnung spielt eine zunehmend große Rolle in verschiedenen Anwendungsfeldern. Insbesondere die Kombination mit künstlichen neuronalen Netzen verspricht neuartige Leistungsfähigkeiten. In dieser Arbeit wird ein Überblick zur aktuellen Entwicklung von Stereo Matching Algorithmen basierend auf neuronalen Netzen gegeben und Auswahlkriterien geschildert. Das ausgewählte modulare neuronale Netz AANet (Adaptive Aggregation Network for Efficient Stereo Matching, ein Convolutional Neural Network) und eine verbesserte Variante AANet+ werden mit zwei konventionellen Bildzuordnungsverfahren (Semi-Global Block Matching und DAISY Deskriptor) vorgestellt und verglichen. Die Implementation dieser Software und der Einsatz über eine Nvidia GeForce RTX 2060 SUPER Grafikkarte, sowie verfügbare vortrainierte Modelle und Datensätze werden ausgeführt. Es wird zudem auf eingesetzte und in der Programmiersprache Python geschriebene Vorverarbeitungsschritte eingegangen. Die 3D-Bilddatengewinnung findet über die Korrespondenzpunktsuche und die anschließende Generierung von Disparitätskarten statt. Für die genannten Verfahren wurden Disparitätskarten erzeugt und evaluiert, um die Eignung des AANet zu beurteilen. Dazu stehen sowohl veröffentlichte Datensätze mit rektifizierten Bildpaaren und Grundwahrheiten bereit, als auch ein Datensatz, welcher Szenerien mit unterschiedlicher Messanordnung zeigt, sowie ein selbst erstellter synthetischer Datensatz. Dieser wurde in der Software Blender mit Grundwahrheit erzeugt. In der Arbeit konnte gezeigt werden, dass der Einsatz von AANet unter bestimmten Rahmenbedingungen gute Ergebnisse liefert. AANet kann abhängig vom vortrainierten Modell sehr gut mit ähnlichen Bildpaaren zum Modell arbeiten und liefert dabei bei hoher Schnelligkeit gute Bildqualitäten ohne weitere Anpassungen zu benötigen. Im Vergleich zu DAISY und SGBM liefert es bessere Ergebnisse unter diesen Voraussetzungen. Die Untersuchungen haben jedoch gezeigt, dass bei größerer Variation des Basisabstands der Kameras dieser Vorteil nicht gegeben ist. SGBM liefert im Vergleich zu AANet mit dem vortrainierten Modell des KITTI Datensatzes bei geringen Basisabständen bessere Ergebnisse, wohingegen der DAISY Deskriptor bei großen Basisabständen bessere Ergebnisse erzielt, wenn diese Algorithmen dementsprechend eingestellt werden. Dabei verhielten sich in den Untersuchungen synthetische und reale Bilder ähnlich.



Analyse und Auswahl von Prüfverfahren für die Optimierung der Fertigung von piezoresistiven Drucksensoren. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Sensoren spielen eine zunehmende Rolle in der Industrie, besonders in der automatischen Industrie. Die DC Industrie Entwicklung GmbH ist ein junges High-Tech-Unternehmen in Erfurt, das hochqualitative Industriesensoren fertigt. Es plant, einen Fertigungsplatz für piezoresistive Drucksensoren am Standort Erfurt aufzubauen. Zur Erzielung einer hohen Produktqualität sind unterschiedliche Prüfverfahren in einem mehrstufigen Fertigungsprozess notwendig. In der Arbeit wurden Struktur, Funktionsweise und Fertigungsprozess des Produkts vorgestellt sowie analysiert. Damit kann man das für das Produkt geeignete Prüfverfahren in Bezug auf die Qualitätsziele und den Fertigungsprozess bestimmen. Eine zusätzliche Untersuchung wurde ausgeführt, um die Qualitätskennzahlen herauszufinden. Zum Schluss der Arbeit wurde eine Vorschlagsliste erstellt, um eine optimale Fertigungsmöglichkeit zu liefern.



Konstruktion einer Versuchsanordnung zur breitbandigen multispektralen Bildaufnahme. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Die folgende Arbeit befasst sich mit der Entwicklung eines Aufbaus zur synchronen Aufnahme eines Bildfeldes durch die Kombination einer Kamera für den sichtbaren Bereich des Lichtes und einer Kamera für den kurzwelligen Infrarotbereich. Dabei werden die Eigenschaften des Silizium CCD Sensors und des Indium-Gallium-Arsenit CCD Sensors jeweils für den sichtbaren und den infraroten Bereich zunächst wissenschaftlich diskutiert. Daraufhin werden diese in einer neuen Anordnung in Verbindung mit anderen passiven optischen Bauelementen zur Anwendung gebracht. Die Anordnung dient dazu den visuellen und den infraroten Kanal voneinander zu trennen, um die Kanäle dann auf die entsprechenden Sensoren zu fokussieren. Zusätzlich wird an die Anordnung eine breitbandige Beleuchtung entwickelt, welche dazu dient, das Bildfeld mit dem Testobjekt zu beleuchten. Der Aufbau soll im Kontext eines Bilderfassungssystems für eine komplexe Sortieraufgabe zum Einsatz kommen. Die Arbeit beschreibt die Entwicklung dieses Aufbaus unter Zuhilfenahme der wissenschaftlichen Fachliteratur und verfolgt verschiedene Lösungsansätze. Ziel des Projektes ist es in der Lage zu sein visuelle und infrarote Bilddateien am Ausgang des Bildaufnahmesystems einer digitalen Bildverarbeitung bereit zu stellen.



Gu, Yunan;
Entwurf und Umsetzung eines Verfahrens zur Erstellung einer digitalen Übersichtskarte in der industriellen Bildverarbeitung. - Ilmenau. - 123 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Im Bereich der industriellen Bildverarbeitung war die Qualitätsüberwachung schon immer eine wichtige Aufgabe. Bei der Erkennung großer Objekte ist ein größerer Bildaufnahmebereich erforderlich. Es gibt eine spezielle Panoramakamera zum Aufnehmen von Panoramafotos, aber der Preis für diese Kamera ist hoch und die aufgenommenen Fotos werden verzerrt. Daher kann ein Kameraarray, das aus kostengünstigen Kameras besteht, eine bessere Bilderfassungslösung sein. Aus diesem Grund wurde ein Mehrbild-Stitching-Algorithmus entwickelt, der den NCC-Algorithmus für die Registrierung verwendet. Der NCC-Algorithmus weist eine gute Robustheit auf, die Berechnungsgeschwindigkeit ist jedoch zu langsam. Um die Berechnungsgeschwindigkeit zu verbessern, werden die Eckpunkte im Bild vor der Registrierung mit dem Harris-Algorithmus ausgewählt. Der NCC-Algorithmus registriert nur die Eckpunkte. Nach der Registrierung werden die falsch übereinstimmenden Eckpunkte durch den Ransac-Algorithmus beseitigt. Zusätzlich wird die Homographiematrix verwendet, um die Stabilität und Rotationsinvarianz des Algorithmus zu verifizieren. In diesem Algorithmus werden viele Parameter verwendet. Durch Anpassen dieser Parameter kann die Genauigkeit des Bildstitchings erhöht und bessere Stitching-Effekte erzielt werden. Schlüsselworte: Mehrbild-Stitching, NCC-Algorithmus, Harris-Algorithmus, Ransac



Hou, Yu;
Entwurf und Umsetzung eines Demonstrators für ein Multikamerasystem. - Ilmenau. - 132 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In den letzten Jahren hat sich die Entwicklung von Kamerasensoren insbesondere die Erhöhung der Qualität bildbestimmender Parameter stark verbessert. Durch die Massenfertigung dieser Sensoren werden kommerziell attraktive Lösungen wie Multikameraanwendungen, möglich. Um die Bilder der einzelnen Bildsensoren zu einem Gesamtbild zusammenzufügen werden Softwarealgorithmen verwendet. Diese Algorithmen stoßen schnell an ihre Grenzen, wenn die Bildsensoren ungünstige Bilder liefern, die schlecht miteinander kombinierbar sind oder gar Bereiche fehlen, die von keinem Bildsensor erfasst werden. Hierfür ist eine geeignete Anordnung der Bildsensoren zu finden. Im Labor Präzisionsprüftechnik an der TU Ilmenau wird ein Multikamerasystem mit Kamerasensoren zu den industriellen Anwendungen entwickelt. Zur Anordnung und Justierung der Multikamerasensoren besteht ein Bedarf an einer Kamerajustiervorrichtung, die es der Kamera ermöglicht, sich während des Bildregistrierungsprozesses frei im Raum zu bewegen oder zu drehen. Die vorliegende Arbeit wird daher den Entwurf und Umsetzung eines Demonstrators der Kamerajustiervorrichtung erfolgen. Ausgangspunkt der Arbeit bilden die Optimierung des Demonstratorgestells und die Verbesserung eines bestehenden Prototyps bzw. Erstellung eines neuen Konzepts. Zuerst werden in der Arbeit die auf der Stabilität des Demonstratorgestells beeinflussten Faktoren analysiert und diskutiert und die entsprechenden Maßnahmen zur Optimierung des Demonstratorgestells vorgeschlagen. Anschließend wird eine Justiervorrichtung für Kameraabdeckplatte bzw. Kameragehäuse optimieret werden, um die Justiervorrichtung für den neuen Prototyp besser anpassen zu können. Danach wird ein neues Konzept zur Verbesserung des bestehenden Prototyps mit einer neuen um die vertikale Achse gedrehten Winkel-Freiheitsgrade erstellt. Der Schwerpunkt der Arbeit liegt auf die Umsetzung des Konzepts mit der Herstellung der metallischen Justiervorrichtung. Nach dem neuen Aufbau des Prototyps wird der Demonstrator praktisch getestet und untersucht. Dadurch wird gewährgeleistet, dass das Demonstratorgestell stabilisiert die Justiervorrichtung unterstützen und die Justiervorrichtung bei der Kalibrierung des Multikamerasystems die Anforderungen erfüllen können. Abschließend wird eine Anleitung zum Aufbau des Demonstrators, Einrichtung und Justage Systems erstellt werden. Schlagworte: Multikamerasystem, Kamerasensoren, Justiervorrichtung, Stabilität, Justierung



Optimierung der Prozessstabilität im Rahmen einer Maschinenfähigkeitsuntersuchung. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Ausgelöst durch einen Kunden, welcher schärfere Anforderungen an die Maschinenfähigkeit stellt, umfasst die Arbeit eine Maschinenfähigkeitsuntersuchung (MFU) mit integrierter Versuchsstudie zur Ermittlung verschiedener Einflüsse auf die Fähigkeitswerte von Dreh- und Fräsmaschinen in der Firma Pabst Komponentenfertigung GmbH. Zur Bestimmung möglicher Einflussfaktoren, welche einen negativen Einfluss auf das Ergebnis der MFU nehmen, wird vorab ein Ishikawamodell erarbeitet. Die aus dem Ishikawamodell hervorgehenden Einflussfaktoren werden anschließend mit Hilfe einer Fehlermöglichkeits- und Einflussanalyse (FMEA) bewertet. Ausgehend vom Ergebnis der FMEA werden die Einflüsse verschiedener kritischer Faktoren in einer Versuchsstudie im Rahmen der MFU untersucht. Dies erfordert die Konstruktion eines Prototyps (Dummy). Die Ergebnisse der Versuchsstudie im Rahmen der Maschinenfähigkeitsuntersuchung werden detailliert beschrieben, sowie Ursachen für bestimmte Ereignisse definiert.



Liu, Yanan;
Grundsatzuntersuchung zur Anwendung von Snapshot-Polarisationskamera in der industriellen Bildverarbeitung. - Ilmenau. - 66 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die Objektdetektion auf Basis der Bildverarbeitung über Licht nimmt eine immer höhere Bedeutung in unterschiedlichen Bereichen an, insbesondere im industriellen Umfeld. Neben der Lichtintensität und -wellenlänge spielt auch die Polarisation des Lichts eine wichtige Rolle, die sie eine Vielzahl an Informationen über die Objekteigenschaften liefert. Deshalb eröffnet die Polarisationsbildgebung eine neue Modalität der Bildverarbeitung und kann für die kontakt- und zerstörungsfreie Gewinnung von spezifischen Werkstoffeigenschaften eingesetzt werden. Für die Polarisationsbildgebung wird eine neuartige Snapshot-Polarisationskamera entwickelt. Diese Kamera basiert auf einem integrierten On-Chip-Filter-Array. Das On-Chip-Filter-Array besteht aus sich räumlich wiederholenden Mikropolarisationsfiltern für unterschiedliche Polarisationsrichtungen (0 ˚, 45 ˚, 90 ˚ und 135 ˚). Unter Benutzung dieser Kamera werden die Lichtkomponenten in allen vier Polarisationsrichtungen mit einer Einzelaufnahme erfasst. Daher kann der Zeitaufwand der Bildaufnahme stark reduziert werden. Im Rahmen dieser Arbeit wurde anhand experimenteller Untersuchungen und Evaluierung bestimmt, mit welcher Güte die Kenngrößen des Lichtpolarisationszustandes sowie die Objekteigenschaften auf Grund von Polarisationseffekten mit dieser Kamera ermittelt werden können. Darüber hinaus wurden Methoden und Algorithmen für die Kameraintegration in ein Multi-Kamera-Bildverarbeitungssystem erarbeitet und umgesetzt.



Scheller, Konrad;
Untersuchungen zur Automatisierung eines Trennprozesses von Glaskapillaren für die Thermometerfertigung. - Ilmenau. - 125 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In der vorliegenden Arbeit werden Untersuchungen zur Automatisierbarkeit eines Trennverfahrens für Glaskapillaren in der Thermometerfertigung angestellt. Kapillarstränge (Ø 1,8 mm; Länge 360 mm) sollen zu 15 mm langen Kapillaren vereinzelt werden. Dabei wird eine gesteigerte Qualität der Bruchkanten angestrebt. Nach einer Einführung in das Thema wird in einer Literatur- und Patentrecherche der derzeitige Stand der Technik zu Glastrennverfahren beleuchtet. Anschließend wird der derzeitige Zustand des manuellen Trennprozesses untersucht. Es werden zwei optisch vermessene Qualitätsmerkmale an der Bruchkante der Kapillare definiert ([Delta Phi]: Winkelfehler zwischen vorliegender und optimal rechtwinkliger Bruchkante; lh: Ausdehnung des Bruchs in Normalrichtung zur Bruchkante). Anhand dieser Merkmale erfolgt die Erfassung der Bruchkantenqualität. Für den Trennprozess wird ein zweistufiger Prozess aus Ritzen und mechanischem Brechen gewählt. Es erfolgt eine separate Untersuchung beider Teilprozesse. Aus der Untersuchung verschiedener Laser-Ritzverfahren ist die beste Lösung die Verwendung eines UV-Lasers ([Lambda] = 355 nm). Das Ritzen mittels UV-Laser wird daraufhin weiter untersucht. Zum reproduzierbaren Brechen der Kapillaren wird ein Versuchsaufbau konstruiert, mit dem sehr gute Trennergebnisse möglich sind. Ritz- und Bruchprozess werden in einer abschließenden Versuchsreihe kombiniert. Unter Verwendung der Methode der Statistischen Versuchsplanung wird der Experimentalaufbau für den Bruchprozess untersucht und optimiert. Ergebnis ist ein kombiniertes Trennverfahren aus verschleißarmem Laser-Ritzen und dem Brechen mit einer simplen, robusten Mechanik. Dieses Trennverfahren lässt sich gut automatisieren und ist für die gleichzeitige Bearbeitung mehrerer Kapillaren parallelisierbar. Die Bruchkantenqualität ist gegenüber dem vorliegenden Trennprozess deutlich gesteigert. Mittelwerte und Streuung sind für beide Qualitätsmerkmale deutlich reduziert. [Delta Phi](mittel;aktuell) = 2,218˚ &flech; [Delta Phi](mittel;erreicht) = 0,530˚; lh(mittel;aktuell) = 0,189 mm &flech; lh(mittel;erreicht) = 0,084 mm



Kuhaupt, Michelle;
Datenerfassung und Visualisierung von Prüfdaten auf Shopfloor Ebene. - Ilmenau. - 150 Seiten
Technische Universität Ilmenau, Diplomarbeit 2021

Die Firma Plansee SE ist Weltmarkt- und Technologieführer für Refraktärmetalle. In kurzen Zyklen werden mit dem Kunden neue Produkte entwickelt. Für die Umsetzung entstehen Prototypen, die in die Vorserie und Klein- oder Großserie übergehen. Das Unternehmen fertigt und betreut die Produkte über den gesamten Produktlebenszyklus. Im Rahmen der Qualitätsplanung soll unter Berücksichtigung der Kundenanforderungen und der internen Vorgaben festgelegt werden, welche Prüfdaten über den Produktlebenszyklus aufgenommen werden müssen. Dafür ist ein Prüfplanungskonzept zu entwickeln, welches den Prüfumfang rekursiv an den Reifegrad des Produkts anpasst. Zusätzlich soll das Konzept dynamisch auf die gefertigte Qualität reagieren können, indem es die Prüfplanung dem aktuellen Qualitätsniveau anpasst. Ein solches Vorgehen ist für das Unternehmen wichtig, um eine Optimierung im Sinne des Spannungsdreiecks Qualität, Zeit und Kosten zu erreichen. Die Prüfung von Produkten in einem frühen Stadium muss zum Aufbau einer besseren Datenbasis umfänglich durchgeführt werden. Produkte, die die Serienreife erreicht haben, können gezielter geprüft werden, was zu einer Kosten- und Zeitersparnis führt. Die Qualität wird dabei statistisch abgesichert. Im Rahmen dieser Arbeit soll bei der Plansee SE ein Konzept für eine Produktionslinie von Fertigteilen erarbeitet werden. Dazu ist folgende Forschungsfrage zu beantworten: "Wie kann eine dynamische und rekursive Prüfplanung in Abhängigkeit vom Produktlebenszyklus realisiert werden und wie kann dieses Konzept in der Produktion auf Shopfloor Ebene, vor allem für die Werkerselbstprüfung und Zwischenkontrolle, zur Datenerfassung, Dokumentation und Visualisierung realisiert werden?". Zur Beantwortung der Forschungsfrage ist auf Basis einer Literaturrecherche ein Konzept zur Prüfplanung in Abhängigkeit vom Produktlebenszyklus für eine Fertigteillinie entworfen worden. Um den Status quo abzubilden und mit dem erarbeiteten Konzept vergleichen zu können, wurde eine Aufnahme des Istzustands mit anschließender Bedarfsanalyse durchgeführt. Es wurden Verbesserungspotentiale in den Bereichen des organisatorischen Vorgehens, der Prüfplanung, der Datenerfassung und der Visualisierung ermittelt. Mit Hilfe einer Aufwand-Nutzen-Matrix erfolgte eine Bewertung der Potentiale und die Ableitung von Handlungsschwerpunkten. Die Ergebnisse der Bedarfsanalyse zeigten, dass Potentiale in der Prototypen- und Kleinserienfertigung vorhanden waren. Das entwickelte Konzept zur Prüfplanung berücksichtigt diese Aspekte in hohem Maß. Großer Wert wurde auch auf die Weiterentwicklung der Werkerselbstprüfung gelegt, da besonders dort Potentiale erkennbar waren. Dies spiegelt die Forschungsfrage wider, die den Schwerpunkt auf die Werkerselbstprüfung legt. Es wurde eine Möglichkeit zur Dateneingabe über Terminals analysiert. Darüber hinaus wurde eine Marktanalyse durchgeführt, welche die technischen Möglichkeiten zur Visualisierung von Messdaten am Shopfloor untersucht. Die Marktanalyse zeigt, dass verschiedene Ansätze zur Umsetzung der Visualisierung denkbar sind. Die Bewertung der Ansätze lieferte Erkenntnisse für die konkrete Aufgabe. Nach einer Analyse über die Machbarkeit des entwickelten Konzepts erfolgte die Erprobung des entwickelten Standards vor allem für Prototypen und kleine Losgrößen von mechanisch bearbeiteten Fertigteilen. Die Erprobung lieferte die Erkenntnis, dass das Konzept in vielen Punkten umzusetzen ist. Die Datenerfassung über Prüflose hilft bei der Schaffung einer digitalen Datenbasis. Die im Prüflos hinterlegten Daten sind digital verfügbar und auswertbar. Über Fertigungsvarianten kann das rekursive Vorgehen über den Produktlebenszyklus technisch umgesetzt werden. Zur Visualisierung des Messwertverlaufs wurden verschiedene Möglichkeiten betrachtet und es wurde die Frage geklärt, ob eine Softwarelösung zur Umsetzung gekauft oder entwickelt werden soll. Für die Dynamisierung wurden verschiedene Ansätze betrachtet und ein Ansatz wurde ausgewählt.



Liu, Kun;
Data-Augmentation und instanzbasierte semantische Segmentierung in der Qualitätssicherung industriell erzeugter Bauteile. - Ilmenau. - 118 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

In dieser Arbeit werden die Instanz-Segmentierung und die Daten-Augmentation diskutiert. Die Mask Regions with Convolutional Neural Networks (Mask R-CNN) wurde als Instanz-Segmentierungsarchitektur für das Training gewählt, weil es einfach strukturiert ist und eine kurze Trainingszeit besitzt. Durch das Trainieren des Netzwerkes wurden die Gewichte eingestellt und nach Tests gute Ergebnisse erreicht. Deep-Learning-Algorithmen besitzen eine Abhängigkeit von großen Datenmengen, welche nicht immer vorhanden sind. Diese Problematik lässt sich durch die Anwendung von Daten-Augmentation lösen. Die Leistung verschiedener Methoden der Daten-Augmentation auf Basis der Bildverarbeitung wird experimentell verglichen und dargestellt. Die Unterschiede zwischen der bildverarbeitungsbasierten Daten-Augmentation und der auf Deep Learning basierenden Daten-Augmentation werden ebenfalls experimentell verglichen und dargestellt. In den Experimenten wurde Generative Adversarial Network (GAN) als Augmentierungsmethode gewählt, um es mit traditionellen Methoden zu vergleichen. Diese Arbeit zeigt, dass Daten-Augmentation sowohl die Problematik des Overfittings verhindern als auch die Generalisierungsfähigkeit und Robustheit des Modells verbessern kann. Die Wahl einer geeigneten Daten-Augmentation kann die Leistung des Netzwerks erheblich verbessern, und innerhalb eines bestimmten Bereichs gilt: je mehr geeignete Methoden verwendet werden, desto besser ist die Leistung. GAN hat einige Vorteile, die traditionelle Methoden nicht haben, wie z.B. die Eignung für jeden Datensatz. Aber die Trainingszeit von GAN ist länger. Außerdem werden zwei Ideen über simulationsbasierte Daten-Augmentation in dieser Arbeit vorgeschlagen.