Final theses studies

Anzahl der Treffer: 721
Erstellt: Sun, 30 Jun 2024 17:02:33 +0200 in 0.0871 sec


Entwicklung, Aufbau und Evaluierung der Steuerungselektronik und -software für ein hyperspektrales Beleuchtungssystem. - Ilmenau. - 93 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2023

Bei der Steinbeis Qualitätssicherung und Bildverarbeitung GmbH wird im Rahmen des Forschungsprojekts "HyPetro" die VIS- und NIR-hyperspektrale Beleuchtung für ein hyperspektrales Bildverarbeitungssystem entwickelt. Diese Arbeit befasst sich mit der Entwicklung der Steuerungselektronik und -software für die NIR-hyperspektrale Beleuchtung. In den ersten Kapiteln werden Grundlagen über verschiedene Leuchtmittel behandelt sowie auf verschiedenen Beleuchtungsstrategien, die in der Bildverarbeitung zum Einsatz kommen, eingegangen. Es werden eine Anforderungsliste und Funktionstruktur erstellt, anhand derer die Komponenten für die Steuerungselektronik ausgewählt werden. Darauf folgt der Entwurf von Leiterplatten, um die Komponenten elektronisch miteinander zu verbinden und die Steuerungssoftware geschrieben. Als Grundlage für die Software wird ein Programmablaufplan erstellt. Ein erstes Funktionsmuster der Beleuchtung wird aufgebaut, mit welchem die Funktionalität der Steuerung und die technischen Parameter im Betrieb der Beleuchtung überprüft werden.



Krause, Leon ;
Entwicklung eines Konzeptes für einen Mikrotiterplatten-Reader. - Ilmenau. - 116 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Im Rahmen dieser Masterarbeit wird in Zusammenarbeit mit dem Unternehmen Steinbeis Qualitätssicherung und Bildverarbeitung GmbH ein Konzept für einen Mikrotiterplatten-Reader mit Digitalkamera entwickelt. Mikrotiterplatten-Reader sind in der Medizintechnik eingesetzte Laborgeräte, welche die Auswertung verschiedenster medizinischer Nachweisreaktionen mittels Bildverarbeitung ermöglichen. Die Konzeptentwicklung beinhaltet theoretische und experimentelle Untersuchungen, auf deren Grundlage das Bildverarbeitungssystem entworfen wird. Es werden sich grundlegend unterscheidende Anordnungskonzepte mit einer und mehreren Kameras sowie verschiedenen Beleuchtungssystemen untersucht. Dabei wird festgestellt, dass der Einsatz von Low-Cost-Bildverarbeitungskomponenten ein vielversprechender Ansatz für die Neuentwicklung eines Lesegeräts für Mikrotiterplatten ist. Weiterhin wird geprüft, ob die Verwendung eines Multi-Kamera-Systems zweckmäßig ist. Die Arbeit zeigt, dass der Einsatz mehrerer in einer Reihe angeordneter Kameras funktionserfüllend ist, zugleich aber kaum Vorteile gegenüber einer Einzelkameraanwendung hat. Im Rahmen dieser Masterarbeit wird schließlich ein aus einer Kamera bestehendes Low-Cost-Bildverarbeitungssystem mit Auf- und Durchlicht ausgewählt. Weiterhin beinhaltet die Konzeptentwicklung die Auslegung des 3-Achs-Positioniersystems. Dazu werden Lösungsprinzipe zur Umsetzung der Relativbewegung zwischen der Mikrotiterplatte und der Kamera erarbeitet und bewertet. Nach der Auswahl eines Positioniersystems werden die mechanischen und elektronischen Komponenten dimensioniert. Schlussendlich stehen ein CAD-Modell und ein Schaltplan zur Verfügung. Die Ergebnisse dieser Arbeit bilden die Grundlage zur Entwicklung eines funktionsfähigen Prototyps. Dieser wird ein erster Schritt hin zur Entwicklung eines serienreifen Mikrotiterplatten-Readers sein.



Entwicklung einer intelligenten Erkennungsroutine für Hyperspektralbilder unter Verwendung von klassischen, auf Bildmerkmalen trainierten Machine-Learning-Algorithmen. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Diese Arbeit beschäftigt sich mit grundlegenden Untersuchungen im Bereich der hyperspektralen Bildgebung. Als Grundlage diente ein Hyperspektraldatensatz verschiedener Gesteinskörnungen, bei denen sich die Klassen hinsichtlich ihrer Eignung für die Betonherstellung unterscheiden und deshalb bestmöglich mittels maschinellen Lernverfahren klassifiziert werden sollen. Für die Optimierung des Klassifikationsprozesses wurde eine lineare Diskriminanzanalyse als Dimensionsreduktionsverfahren sowie Bandselektionsverfahren untersucht, welche relevante Spektralkanäle des Hyperspektralkubus bestimmen sollen. Für die Klassifikation kam ein auf Form-, Farb- und Texturmerkmalen trainierter Random-Forest-Klassifikator zur Anwendung. Die Berechnung der Bildmerkmale erfolgte auf Basis der ortsaufgelösten Bilder ausgewählter Spektralbänder. Darüber hinaus wurden einzelne Punktspektren des Datensatzes klassifiziert, sowie das Deep-Learning-Modell ResNet-50 auf dimensionsreduzierte Bilder angewandt. Im Rahmen der Untersuchungen ermöglichte keine der betrachteten Klassifikationsmethoden allein, den Datensatz mit einer Erkennungsrate von über 99% hinreichend genau zu klassifizieren. Es erwies sich jedoch eine Kombination von Klassifikationsmodellen auf Entscheidungsebene sowie auf Merkmalsebene als sinnvoll. So brachte eine Kombination der Bildmerkmale, die einerseits auf Spektralkanälen des Hyperspektralkubus und anderseits auf dimensionsreduzierten 3-Kanalbildern berechnet wurden, die höchsten Erkennungsraten. Dabei führte eine höhere Anzahl an genutzten Spektralbändern stets zu höheren Erkennungsraten, während eine Erhöhung der berechneten Bildmerkmale nicht immer zu einer Verbesserung des Klassifikationsergebnisses führte. Embedded Merkmalsselektionsverfahren konnten erfolgreich charakteristische Spektralbänder des Datensatzes ermitteln. Aufgrund der geringen Interklassenvariabilität des Datensatzes sind die ermittelten Kanäle verschiedener Klassen jedoch oft identisch. Bei einer Klassifikation auf Basis von Punktspektren ist ein möglichst großer Spektralbereich von Vorteil. Für weitere Untersuchungen bietet sich eine Kombination aus klassischen Klassifikatormodellen auf Basis von Bildmerkmalen und Punktspektren, sowie die Nutzung von Deep-Learning-Modellen an.



Nölle, Sebastian;
Untersuchungen zu dynamischen Kalibrierverfahren im 2D-Bild mittels eines virtuellen Kalibriernormals. - Ilmenau. - 163 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Diese Masterarbeit befasst sich mit der Entwicklung eines langzeitstabilen und wirtschaftlichen Kalibrierverfahrens für die 2D-Bildverarbeitung mit Hilfe eines virtuellen Kalibriernormals. Hierzu werden zunächst die Möglichkeiten der Kalibrierung optischer 2D-Bildverarbeitungssysteme erörtert sowie verschiedene Arten von Kalibriernormalen und Messfehlern. Anschließend werden Untersuchungen zur Eignung des Verfahrens an einem Koordinatenmessgerät durchgeführt. Ein weiteres Arbeitsergebnis ist die Konstruktion einer justierfähigen Kalibriernormalaufnahme, welche sowohl auf einem Koordinatenmessgerät, als auch im System Qualileo eingesetzt werden kann. Zuletzt wird die Eignung des Verfahrens am dafür geplanten optischen Bildverarbeitungssystem überprüft.



Görner Tenorio, Christian;
Erweiterung und Inbetriebnahme eines bildgestützten autopetrographischen Analysesystems und Implementierung einer objektgenauen RGB-Z-Datenfusion von CCD-Farbzeilenkamera und 3D-Laser-Line-Scanner. - Ilmenau. - 191 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Zur Vermeidung einer Alkali-Kieselsaure-Reaktion (AKR) in der Betonindustrie ist es zwingend erforderlich, alle AKR-kritischen Gesteinsklassen im Betonzuschlagstoff (Gestein) mit ihrem Masseanteil korrekt als solche zu klassifizieren, um kritische Lagerstätten bzw. Gesteinschargen von der Betonherstellung auszuschließen. In dieser Arbeit wurde das im Fachgebiet Qualitätssicherung und Industrielle Bildverarbeitung vorhandene bildgestützte petrografische Analysesystem, das für eine Klassifizierung der Gesteinsklassen konzipiert ist, zunächst in Betrieb genommen. Neben einer einheitlichen Ansteuerung über Python wurden die Farbzeilenkamera (RGB) und die Beleuchtungseinrichtungen justiert. Zur Berechnung des Massenanteils mit Hilfe der spezifischen Dichte ist die Höhenmessung der Objekte notwendig. Der vorhandene Aufbau wurde mit einem 3D-Laser-Line-Scanner zur Messung der Profilhöhe und des Volumens erweitert. Die Auswahl der untersuchten Scannern wurde mittels einer Bewertungsmatrix nach VDI 2555 realisiert. Für eine datenverlustfreie und kontinuierliche Aufnahme von RGB- und 3D-Informationen mehrerer ankommender Objekte wurde ein Algorithmus konzipiert, der es ermöglicht aus dem kontinuierlichen Datenfluss über den ersten Zuschnitt der Szene und dem anschließenden Zuschnitt des Objektes die notwendigen Informationen zu extrahieren. Aufgrund der sequentiellen Bearbeitung in Python wurden die Prozesse per Multiprocessing parallelisiert. Es wurde für eine richtige Informationszuordnung der Objekte ein Vorgehen implementiert, das aus den ankommenden Daten über die Konturmerkmale die RGB-Daten den 3D-Daten zuordnet. Um dem Deep-Learning-Modell die notwendigen Objektdaten zum Antrainieren weiterzugeben muss jedem Pixel im RGB-Bild eine 3D-Information (x-, y- und z-Informationen) zugewiesen werden. Es wurden für die Datenfusion von RGB-Daten und 3D-Daten verschiedene Methoden verglichen. Es wurden die Interpolationsverfahren mit dem Joint Bilateral Upsampling (JBU) und den Markov Random Fields (MRF) anhand von statistischen und kantenbasierter Bewertungsgrößen verglichen. Nach der Fusion wurde ein Vorgehen in der Nachbearbeitung entwickelt, das eine pixelgenaue Fusion von RGB-Daten und 3D-Daten ermöglicht.



Noor, Muhammad Tayab;
Optimisation of the 3D point cloud by using a non-end-to-end stereo matching framework for disparity refinement. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Stereo-Matching zur Disparitätsvorhersage aus rektifizierten Bildpaaren ist für viele Sehaufgaben wie Tiefenwahrnehmung und autonomes Fahren. Sie hat auch vom Deep Learning profitiert. In den letzten Jahren wurden mehrere Verfahren vorgeschlagen, die in End-to-End und Non-End-to-End Frameworks. End-to-End Frameworks verarbeiten alle Schritte in der Stereo Matching Pipeline, i.e. Kostenberechnung, Kostenaggregation, Disparitätsauswahl und Disparitätsverfeinerung. Non-End-to-End Frameworks ersetzen einen der vier Schritte in der Stereo Matching Pipeline. In dieser Masterarbeit habe ich den aktuellen Stand der Technik von Non-End-to-End Stereo Matching Frameworks für Disparitätsverfeinerung namens i DRR[40], RecResNet[41], LRCR[42], FD-Fusion[43] und Neural Disparity Refinement for Arbitrary Resolution Stereo[44] und wählte RecResNet und FD-Fusion für das Training mit den Datensätzen ausgewählt. Der Code wurde für die ausgewählten Frameworks geändert, um mit Python 3, den neuesten Python-Bibliotheken und unserem Datensatz kompatibel zu sein. Skripte wurden Skripte für die Datenvorverarbeitung, die Datenerweiterung und die Berechnung von Fehlerkarten geschrieben. Ausgewählte Frameworks wurden mit der SGBM-Methode von OpenCV kombiniert und auf Out-of-Distribution Datensätzen (KITTI 2015, SceneFlow (Driving)) und einem In-Distribution Datensatz (id25) trainiert. RecResNet schnitt bei allen Datensätzen nicht gut ab und wurde für weitere Trainings/Tests verworfen. FD-Fusion lieferte anfänglich vielversprechende Ergebnisse in allen Datensätzen und wurde für weiteres Training/Tests im id25-Datensatz. Das Modell wurde in vier verschiedenen Szenarien für den id25-Datensatz trainiert, die Folgendes umfassen Training des Modells ausschlieSSlich auf dem id25 (Assembly 1) Datensatz, Training des Modells auf dem id25 (Assembly 1), das auf SceneFlow trainiert wurde, das Training des Modells auf dem id25 (Assembly 1) Datensatz mit Datenerweiterung Augmentation, trainiert mit SceneFlow und Training des Modells auf dem id25 (Assembly 1 3 4)-Datensatz mit Datenerweiterung, die zuvor mit SceneFlow trainiert wurden Ausführliche Experimente und Bewertungen wurden wurden mit Disparitätskarten und 3DPunktwolken durchgeführt. Fehlerkarten wurden für vorhergesagte Disparitätskarten berechnet, und die Oberflächendistanz wurde mit segmentierten Teilen von 3D-Punktwolken Punktwolken berechnet, die unter Verwendung vorhergesagter Disparitätskarten erzeugt wurden. Nach eingehender Analyse der Ergebnisse wurde festgestellt, dass wurde geschätzt, dass eine Erhöhung der Trainingsdaten um approximately 300 Bilder den Fehler um approximately 10% senkt. Die Studie und die Ergebnisse sind hilfreich für Unternehmen oder Abteilungen, die Stereovision einsetzen oder in diesem Bereich beginnen.



Richter, Martin;
Aufbau eines 3D-Analysesystems für die Messung von Forstwegen (Wegekörperobefläche). - Ilmenau. - 109 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Stereo Imaging stellt aufgrund eines relativ einfachen Aufbaus und aufgrund umfangreicher freier Softwarepakete ein weitverbreitetes optisches Messverfahren für 3D-Messung dar. Eine Anwendung dieser Verfahren im forstlichen Umfeld für die Messung von Wegeprofilen ist nach Recherchen zum Stand der Technik bisher noch nicht erfolgt. Ziel der vorliegenden Arbeit ist es, ein Messsystem für die dreidimensionale Erfassung des Wegeprofils von Wald uns Forstwegen im Rahmen des CONTURA-Projektes auf Basis von stereoskopischen Methoden auszulegen und zu testen. Die Auslegung umfasst dabei eine Betrachtung der Bearbeitungszeiten für die Auswertung der Bilddaten in der Skriptsprache Python und dem Softwarepaket OpenCV und eine Optimierung mit dem Ziel einer Echtzeitbearbeitung. Die Bearbeitungszeit konnte dabei für eine Bildfrequenz von 30 Bildern/s der Größe 1280x860 auf 0,8 s reduziert werden. Hierbei erlangte das getestete Verfahren (SAD) nicht die gewünschte Tiefenauflösung.Höhere Auflösungen konnten durch die Variation der in OpenCV enthaltenen Blockmatchingmethoden erzielt werden. Die damit eingehende Erhöhung der Bearbeitungszeit um das Zehnfache macht eine echtzeitfähige Auswertung unter den gegebenen Anforderungen nicht realisierbar. Die annähernde Verdopplung in der Genauigkeit der Bildpunktsuche sowie die Subpixelauflösung erwiesen sich für die weiteren Untersuchungen als vorteilhafter als eine geringe Bearbeitungszeit. Darüberhinaus ist ein post-processing nach erfolgter Bildaufnahme ebenfalls eine Option. Im Rahmen der mechanischen Auslegung erfolgte das Erstellen von Modellen zur Ermittlung der Kameraanzahl und Sensoranforderungen für parallele und konvergente Ausrichtung der Kameras, um einem Bereich von vier Metern durchgängig mit einer in einem Bereich von mindestens ± 150 mm zu messen. Die Wahl des Kamerasystems erfolgte unter Berücksichtigung der Wirtschaftlichkeit, theoretischen Genauigkeit und rechtlichen Anforderungen. Die Funktionsfähigkeit des ausgelegten stereoskopischen Aufbaues und der Modelldaten wurde zuletzt in Feldmessungen validiert. Hierbei konnte eine Prozessfähigkeit in den Grenzen von ±10 mm gewährleistet werden. Die Detektion von Schäden erfolgte dabei zuverlässig bei Geschwindigkeiten von bis zu 10 km/h ohne zusätzliche Belichtung. Höherer Geschwindigkeiten sind durch den Einsatz einer aktiven Beleuchtung denkbar. Zur Reduktion des Einflusses des Umgebungslichtes wurden Untersuchungen zur Sonnenlichtunterdrückung unter Ausnutzung der Wasserdampfabsorptionsbande (940nm) durchgeführt. Der Effekt lässt sich für die Störlichtunterdrückung nutzen erfordert jedoch eine tageslichtabhängige Zusatzbeleuchtung. Die Eignung der stereoskopischen Methoden für die Detektion von Wegeschäden entlang der Wegkrone konnte nachgewiesen werden. Optimierungsbedarf besteht jedoch hinsichtlich der automatisierten Belichtung sowie der schnellen Bildaufnahme bei ca. 30km/h.



Hake, Cornelius;
In-Situ Auswertung des Laserkontaktierprozesses elektrischer Antriebe mittels Hochgeschwindigkeitsvideos sowie Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die vorliegende Arbeit beschäftigt sich mit der prozessbegleitenden Auswertung des Laserkontaktierprozesses elektrischer Antriebe mittels Hochgeschwindigkeitsvideos sowie der Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz. In der Produktion moderner elektrischer Antriebe für batterieelektrische Fahrzeuge wird zur Erhöhung des Kupferfüllfaktors im Stator einer permanenterregten Synchronmaschine die Hairpintechnologie genutzt. Ein zentraler Schritt bei der Herstellung dieser Statoren ist die Kontaktierung der Hairpinenden mittels Laserstrahlschweißen. Dieser Schweißprozess ist geprägt durch geometrische und prozessbedingte Abweichungen aus vorherigen Prozessschritten, die auf das Ergebnis der Schweißverbindung Einfluss nehmen. Neben der Computertomographie als zerstörungsfreie nachgelagerte Prüfmethode ist es wünschenswert, eine prozessbegleitende Methode zur Überwachung zu finden. Im Rahmen der Prozessüberwachung von Schweißverbindungen werden häufig Hochgeschwindigkeitskameraaufnahmen zur Detektion von Schweißspritzern genutzt. Diese können zu Beginn der Arbeit durch ein, auf einem statischen Algorithmus basierenden Programm ausgewertet werden. In der Arbeit wird der bestehende statische Algorithmus um die neuen Abweichungsarten Rauch und Prozessleuchten erweitert. Des Weiteren wird die Detektion der Abweichungsart Spritzer, sowie der komplette Programmaufbau zahlreichen Verbesserungen unterzogen. Anschließend erfolgt eine Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz zur Detektion von Spritzern, in der sich die Methoden der Semantischen Segmentierung und der Einzelbildklassifikation als dienlich erweisen. In einem Vorversuch werden für die beiden Methoden jeweils drei Basisnetze hinsichtlich der besten Trainingsergebnisse evaluiert. Die Methode der Einzelbildklassifikation wird anschließend um einen nachgelagerten statischen Algorithmus erweitert, sodass ein hybrider Einsatz aus Künstlicher Intelligenz und Algorithmus untersucht wird. Parallel dazu erfolgt die Entwicklung eines Videoklassifikators als Kombination aus Faltungsnetzwerk und Long Short-Term Memory Netz. Die Bewertung und der abschließende Vergleich aller Auswertemethoden erfolgt anhand von Daten eines Großversuches. Dabei stellt sich heraus, dass der hybride Ansatz aus Einzelbildklassifikation und Algorithmus zahlreiche Vorteile bei der Detektion von Spritzern gegenüber der Semantischen Segmentierung und dem statischen Algorithmus aufweist. Darüber hinaus stellt die Videoklassifikation eine geeignete Methode dar, ohne Abweichungsquantifizierung geometrische und prozessbedingte Fehlerfälle zu detektieren.



Zheng, Licheng;
Aufbau einer Dualmatrixkamera auf Silizium- und InGaAs-Basis zur Erzielung einer breitbandigen multispektralen Bilderfassung. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die folgende Arbeit befasst sich mit der Entwicklung eines Gerätes zur synchronen Erfassung von Objektinformationen durch die Kombination von einer Kamera im Infrarotbereich und einer Kamera im sichtbaren Bereich. Zunächst werden die verschiedenen Kombinationen verschiedener optischer Komponenten theoretisch diskutiert und nach Abwägung der Vor- und Nachteile die beste Möglichkeit ausgewählt. Der Zweck besteht darin, die visuellen und infraroten Kanäle zu trennen, damit die Kanäle auf die entsprechenden Sensoren fokussiert werden können. Darüber hinaus wird eine LED-Ringbeleuchtung mit einem Spektralbereich von 400-1800 nm entwickelt, um das Objektfeld mit dem Testobjekt zu beleuchten. Das Gerät kann in Bilderfassungssystemen für viele Aufgaben im Lebensmittel- und Recyclingbereich eingesetzt werden.



Konzeptentwicklung zur Reorganisation des Prozessflusses im Bereich der Montage für Zweigelenkwellen. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Gelenkwellen sind damals wie heute in vielen verschiedenen Industriezweigen vertreten. Dazu zählen unter anderem die Automobilindustrie, Traktoren und Landtechnik sowie der Schiffsbau. Diese Bachelorarbeit mit dem Thema ‚Konzeptentwicklung zur Reorganisation des Prozessflusses im Bereich der Montage für Zweigelenkwellen‘ beschäftigt sich mit der Optimierung der Montage solcher Gelenkwellen und wurde in der Gelenkwellenwerk Stadtilm GmbH erstellt. Dazu wurden neben den theoretischen Vorbetrachtungen im Bereich des Lean Managements sowie dem allgemeinen Aufbau von Gelenkwellen, Wertstromanalysen und Materialflüsse zu entsprechend vorher festgelegten Vertretern von Serien- und Projektwellen aufgenommen. Diese Daten wurden anschließend analysiert, ausgewertet und visualisiert. Anhand der Daten konnte ein Vergleich der verschiedenen Wertstromanalysen und Materialflüsse angestellt werden. Mittels dieser Datengrundlage wurden Potentiale zur Optimierung des Prozesses abgeleitet und daraus ein optimales Layout für die Montageabteilung entwickelt. Als übergeordnete Maßnahme hat sich die Trennung der Serien- und Projektwellenmontage herauskristallisiert. Aus dieser Layout Anpassung wurden nachfolgend Maßnahmen abgeleitet, um vom Ist- Zustand zum Soll- Zustand zu gelangen. Im Anschluss erfolgte eine Kostenabschätzung und Betrachtung der Auswirkungen auf die Minimierung der Verschwendungsarten. Eine Priorisierung der Maßnahmen wurde durch eine Aufwand- Nutzen- Betrachtung durchgeführt und ein Handlungsplan zur Umsetzung abgeleitet. Um die Wirtschaftlichkeit der Maßnahmen zu bewerten, wurde eine Return on Investment- Berechnung durchgeführt. Diese ergab, dass die Umstrukturierung, mit einem ROI von 0,9 Jahren, als wirtschaftlich angenommen werden kann und es sinnvoll ist, diese umzusetzen.