Diplom- und Masterarbeiten

Anzahl der Treffer: 124
Erstellt: Fri, 26 Jul 2024 23:03:24 +0200 in 0.3739 sec


Hensengerth, Roland;
Data Farming für Produktsequenzen im Kontext der Fertigungssimulation. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Ziel dieser Arbeit ist es, einen Ansatz zu entwickeln, mit welchem die grundsätzlichen Auswirkungen von Produktsequenzen auf Ergebnisgrößen im Kontext der Fertigungssimulation untersucht werden können. Dabei soll eine aus dem Data Farming bekannte generalisierte Sichtweise angenommen werden. Nach einer umfassenden Literaturanalyse werden zunächst Produktsequenzen als Folgen von Produkten, welche verschiedene Produkttypen aufweisen können, definiert. Für die Erstellung dieser wird ein Baumalgorithmus vorgestellt, welcher Sequenzen minimaler Länge zurückgibt, die anschließend zu einer Gesamtsequenz zusammengefügt werden können. Im Rahmen des Experimentdesigns für Produktsequenzen werden Nachteile des Algorithmus ausgeglichen. Als messbare Ergebnisgrößen werden Ereignisse definiert, die während des Simulationslaufs von bestimmten Produktsequenzen ausgelöst werden können. Dabei ist es sinnvoll, je nach Ereignistyp ein Gegenereignis zu definieren, wodurch dann Ereignispaare entstehen. Mittels einer geeigneten Sequenz- und Ereignismessung werden Datenstrukturen erstellt, die mit Sequential Pattern Mining Algorithmen zum Auffinden von häufigen Sequenzen verarbeitet werden können. Mit einem Streudiagramm und einer tabellarischen Darstellung werden zwei Visualisierungsmethoden vorgestellt, welche sich zur anschließenden Auswertung eignen. Außerdem wird die Validierung der Ergebnisse mittels eines Simulationsmodells eingegangen. Als geeignete Datenbankmanagementsysteme zur Speicherung erweisen sich NoSQL Systeme. Zur Überprüfung des Konzeptes wird dieses im Anschluss prototypisch implementiert. Anhand von zwei akademischen Anwendungsbeispielen wird aufgezeigt, dass mit Hilfe des Ansatzes interessante Ursache-Wirkungs-Zusammenhänge zwischen Produktsequenzen und Ergebnisgrößen ermittelt werden können.



Cely Hernandez, Daniela Rocio;
Metamodellierung von Simulationsmodellen. - Ilmenau. - 82 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Technische Systeme zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Nicht selten werden statt mathematischer bzw. analytischer Methoden Simulationsmodelle verwendet, um das betrachtete System über Simulationsexperimente zu studieren und zu evaluieren. Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren. Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamodellierung und mit der Charakterisierung gängiger Methoden, wie das Kriging-Verfahren, die Spline-Regression, die Support-Vector-Machine, die polynomiale Regression, die radiale Basisfunktion, das künstliche neuronale Netz und der Entscheidungsbaum. Hierfür wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen. Die letzten vier Methoden wurden mit Hilfe einer prototypischen Umsetzung anhand von Kriterien, wie die Genauigkeit, Robustheit und Effizienz, miteinander verglichen. Hierbei stellte sich heraus, dass die polynomiale Regression den geringsten Fehler (RAAE) bei der Abbildung linearer Zusammenhänge aufweist. Für die Abbildung einer Nichtlinearität hat hingegen das künstliche neuronale Netz den niedrigsten Fehler erzeugt. Außerdem hat sich die Methode des Entscheidungsbaumes als robust erwiesen, weil sie mit der geringsten Standardabweichung verschiedene Simulationsmodelle abgebildet hat. Die Ergebnisse dieser Arbeit bestätigen die Nützlichkeit einer Metamodellierung im Sinne der Zeitlaufreduzierung. Während der Aufbau eines Metamodells und die Prognose von Simulationsergebnissen Millisekunden dauert, ist die Laufzeit von der gleichen Zahl an Simulationsexperimenten mindestens tausend mal größer. Bei dem künstlichen neuronalen Netz und der radialen Basisfunktion hat der Aufbau des Metamodells und die Prognose von Simulationsergebnissen vergleichsweise mehr Zeit im Anspruch genommen als die polynomiale Regression und der Entscheidungsbaum.



Breitsprecher, Oskar;
Vergleich verschiedener Zeitfortschrittsverfahren in der verteilten Simulation. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die vorliegende Masterarbeit stellt einen Vergleich grundlegender Synchronisations-verfahren der verteilten Simulation vor. Dazu werden zunächst konservative, optimistische und hybride Verfahren auf algorithmischer Ebene vorgestellt und miteinander verglichen. Im Anschluss werden zwei Referenzmodelle mit der Simulationssprache SLX entwickelt. Dabei stellt ein Referenzmodell eine Umsetzung des Phold Modells nach Fujimoto dar. Mittels einer SLX-HLA Schnittstelle nach Straßburger und einer HLA RTI werden die Implementierungen der Referenzmodelle anschließend verteilt ausgeführt. Hierzu werden vorhandene Implementierungen eines konservativen und eines optimistischen Synchronisationsverfahrens in einem Praxistest gegenübergestellt. Um die Vor- und Nachteile der jeweiligen Synchronisationsmethoden zu identifizieren, werden modellspezifische und modell-unabhängige Parameter wie der Lookaheadwert in unterschiedlichsten Konstellationen getestet und dass Verhalten der Synchronisations-verfahren auf Änderungen der Ausprägungen dieser Parameter analysiert.



Phan, Hoang Ha;
Adaption von Simulationsmodellen : Entwicklung eines Basisframeworks und Test anhand eines konkreten Adaptionsverfahrens. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Zur Erhaltung der Wettbewerbsfähigkeit müssen produzierende Unternehmen heute fähig sein, die aufgrund von gestiegenen Kundenanforderungen zunehmende Variantenvielfalt und die sich daraus ergebende Turbulenz und Komplexität in modernen Produktionssystemen beherrschbar zu machen. Hierzu empfiehlt es sich, Simulationsmodelle im Rahmen der Produktionsplanung und -steuerung zur kurz- und mittelfristigen Entscheidungsunterstützung einzusetzen. Mit der computergestützten Simulation lassen sich Produktionssysteme abbilden, sodass zukünftige Ereignisse mittels Was-wäre-wenn-Analysen prognostiziert und darauf basierend adäquate Planungs- und Steuerungsstrategien entwickelt werden können. Da die realen Fertigungsprozesse und -parameter sich über die Zeit verändern, müssen Simulationsmodelle ständig aktualisiert bzw. adaptiert werden, damit eine realitätsgetreue Abbildung sichergestellt werden kann. Hierbei entsteht ein ständiger Betreuungs- und Pflegeaufwand, der durch die vollständige oder zumindest teilweise Automatisierung des Modelladaptionsprozesses reduziert werden kann. In modernen Produktionssystemen werden sämtliche prozessbezogenen Daten digital aufgezeichnet, wie etwa im Rahmen der Betriebsdatenerfassung (BDE), die zur (teil-)automatischen Modelladaption genutzt werden können. Vor diesem Hintergrund wurde in dieser Arbeit ein Basisframework konzipiert und dessen Grundkomponenten prototypisch entwickelt, sodass damit das Testen verschiedener Adaptionsverfahren ermöglicht wird. Zum Test der Verfahren werden Daten in einem Simulationsmodell (Emulation der Produktion) erzeugt, diese Daten in einem als C#-WPF-Anwendung implementiertes Adaptionswerkzeug ausgewertet und auf Basis der Ergebnisse die vorab definierten Parameter eines weiteren Simulationsmodells mit Hilfe einfacher Adaptionsverfahren adaptiert.



Heimann, Maximilian;
Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Mit dem Thema Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen soll ein systematischer Vergleich der Text Mining Verfahren vorgenommen werden, um so eine Aussage über deren Eignung für die Analyse von Trends in wissenschaftlichen Publikationen zu treffen. Dazu wird im ersten Schritt ein allgemeiner Überblick über die Grundlagen des Text Mining gegeben. Dieser Überblick umfasst wichtige Begriffe, Eigenschaften des Text Mining, das Vorgehensmodell sowie eine Erläuterung der verschiedenen Text Mining Verfahren. Im zweiten Schritt wird ein Kriterienkatalog aufgestellt, anhand dessen die einzelnen Verfahren bewertet werden sollen. Zusätzlich erfolgt eine Gewichtung der verschiedenen Kriterien. Bevor die einzelnen Verfahren getestet werden, wird der Untersuchungsgegenstand näher beschrieben. Die einzelnen Tests der verschiedenen Verfahren werden mit Hilfe unterschiedlicher Text Mining Werkzeuge durchgeführt und auf Basis der Beobachtungen innerhalb des Tests wird eine Bewertung der einzelnen Kriterien vorgenommen. Für jedes Verfahren wird eine Gesamtbewertung aus den einzelnen Kriterien ermittelt, um anhand dieser ein Ranking der Verfahren nach deren Eignung zur Ermittlung von Trends aufzustellen. Abschließend wird ein Resümee für die Thematik gezogen. Hierbei wird ein Ausblick auf die zukünftige Entwicklung des Text Mining gegeben sowie eine abschließende Aussage über die Eignung des Text Mining für die Anwendung auf wissenschaftliche Publikationen aus den Ergebnissen des praktischen Teils der Arbeit getroffen.



Gelbrich, Patrick;
Dynamisches Erzeugen von Entscheidungsbäumen für die Simulationsdatenanalyse. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Rahmen der Produktionssimulation spielt unter dem Aspekt der Gewinnmaximierung die effiziente Ausnutzung der zur Verfügung stehenden Ressourcen eine wichtige Rolle. Dabei liegt die Schwierigkeit darin, das dynamische Verhalten von komplexen Produktionssystemen korrekt analysieren und bewerten zu können. Mit dem Ziel der Optimierung von Fertigungsanlagen wird häufig die bewährte und anerkannte Methode der diskretereignisgesteuerten Simulation eingesetzt. Ziel dieser Arbeit ist die Entwicklung eines Konzeptes zur Nutzung von Entscheidungsbaumverfahren zur Simulationsdatenanalyse. Bei der Ausführung der Simulationsexperimente ist darauf zu achten, dass ein möglichst großes Spektrum an Eingangsparameterkombinationen getestet werden kann. Zur Aufdeckung der Beziehungen der Eingangsparameter auf verschiedene Ergebnisparameter bei der Simulation des Produktionssystems kommen dynamische Entscheidungsbaumverfahren zum Einsatz, welche noch nicht in Bezug auf die Analyse von Simulationsdaten eingesetzt wurden. Diese Verfahren haben sich bereits in vielen Aspekten zur Klassifikation von Datenströmen im Bereich des Stream Minings bewährt. Insbesondere der inkrementelle Hoeffding-Baum, beziehungsweise der Very Fast Decision Tree werden auf die Eignung von streamingbasierter Eingabe von Simulationsdatensätzen untersucht. Durch die Struktur der erstellten Entscheidungsbaummodelle können hierbei die Beziehungen der Eingangsparameter zu den Ergebnisdaten der Simulation untersucht werden.



Bartz, Clemens;
Untersuchung logistischer Kennzahlen zur Bewertung operativer Planungsentscheidungen unter Anwendung einer MRP-Cockpit-Lösung. - 69 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Bei der Bewertung kurzfristiger Planungsentscheidungen werden Disponenten nicht hinreichend unterstützt. Bisherige Systeme visualisieren mögliche Unter- und Überdeckungen und können Alternativvorschläge unterbreiten. Eine Bewertung findet nur unter einfachen Gesichtspunkten statt. In der Arbeit wird ein auf einer Literaturanalyse sowie Expertenwissen basiertes Kennzahlensystem entwickelt, welches zur Entscheidungsunterstützung angewendet werden kann. Die Umsetzbarkeit wird prototypisch an einem SAP S4 HANA getestet.



Eisenhauer, Jana;
Erweiterung der statischen Wertstromanalyse durch Simulationsbausteine an einem Beispiel aus der Automobilzulieferindustrie. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In den vergangenen Jahren hat sich die Wertstromanalyse zunehmend als Methodik zur gesamtheitlichen Abstimmung und Verbesserung der Prozesskette durchgesetzt. Durch die Visualisierung von Informations- und Materialflüssen werden Verschwendung und Verbesserungspotentiale aufgezeigt. Ausgehend von diesen Ansatzpunkten können dann zielgerichtet Maßnahmen zur Verbesserung abgeleitet werden. Häufigster Kritikpunkt der Methodik ist jedoch die Vernachlässigung der Dimension Zeit. Die Betrachtungen basieren auf Durchschnittswerten, wodurch Extremwerte und stochastische Verteilungen unberücksichtigt bleiben. Aus diesem Grund wurden in letzter Zeit vermehrt Beiträge publiziert, die eine Kombination der Wertstromanalyse mit Simulationskomponenten thematisieren. Die Ausarbeitung zeigt die verschiedenen Methoden einer solchen dynamischen Wertstromanalyse auf und stellt sie vergleichend gegenüber. Zudem wird ein Integrationsansatz der dynamischen Wertstromanalyse in die Abläufe der statischen Wertstromanalyse vorgestellt. Anhand dieser erarbeiteten Vorgehensweise werden zwei ausgewählte Methoden auf einen realen Wertstrom der Automobilzulieferindustrie angewendet. Die beiden untersuchten Methoden werden anhand ausgewählter Kriterien gegenübergestellt und bewertet. Abschließend werden Einflussfaktoren auf den Nutzen sowie den Aufwand der dynamischen Wertstromanalyse im betrieblichen Umfeld vorgestellt und erläutert, sowie Herausforderungen hinsichtlich der Akzeptanz der Methodik aufgezeigt.



Ponischil, Sonja;
Visual Analytics in der Simulationsdatenanalyse. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Mit zunehmendem technischem Fortschritt im Bereich von Speicher- und Rechenkapazitäten werden die Informations- und Datenmengen steigen. Die vergleichsweise geringer wachsende Fähigkeit, diese Datenvolumen zu analysieren, wird in der Zukunft zu einem Problem führen. Um dieser Herausforderung zu entgegnen, entwickelte sich das interdisziplinäre Forschungsgebiet der Visual Analytics, das den Prozess des Datenmanagements bis hin zur Visualisierung und Entscheidungsfindung durch die Integration des Menschen umfasst. Folglich stellt Visual Analytics eine Kombination aus automatischer und visueller Analyse, bestehend aus Methoden der automatischen Datenanalyse sowie Methoden der visuellen Darstellung und Interaktion des Menschen, dar. Diese Arbeit zeigt anhand eines qualitativen Literaturreviews den aktuellen Stand der Forschung im Bereich der Visual Analytics Methoden auf und gibt einen Überblick über die verschiedenen Begrifflichkeiten und die Methoden dieses Forschungsbereichs. Zudem werden die recherchierten Visual Analytics Methoden dahin gehend überprüft, ob und in welcher Form diese für die Analyse von Simulationsdaten geeignet sind. Diese Arbeit beschränkt sich auf Ergebnisdaten diskret-ereignisgesteuerter Simulation von Produktionssystemen. Abschließend werden die Erkenntnisse aus der Beurteilung der Visual Analytics Methoden auf ein Testszenario übertragen, um die Ergebnisse praktisch zu veranschaulichen.



Albrecht, Jennifer;
Vergleich der Konzepte von Industrie 4.0 und der Digitalen Fabrik. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Das Ziel der Arbeit war zum einen festzustellen, ob die beiden Konzepte Industrie 4.0 und Digitale Fabrik verglichen werden können, das wurde anhand der Definitionen, sowie anhand einer möglichen Eingrenzung der Konzepte versucht, die Ergebnisse dafür wurden den zwei großen Grundlagenkapitel entnommen. Das Ergebnis ist, dass ein direkter Vergleich nicht möglich ist. Da beide Konzepte nicht eindeutig voneinander abgegrenzt werden können und die Ebenen des Einsatzes der Konzepte nicht zusammenpassen. Da die digitale Fabrik eine reine virtuelle Betrachtung der Fabrik beinhaltet und die Smart Factory als Teil der Industrie 4.0, welcher vom Einsatzgebiet der Digitalen Fabrik am nächsten kommt, sich um die reale Produktion bemüht. Auch wenn das Bestreben der Digitalen Fabrik, sich der realen Produktion anzugleichen, zu erkennen ist und ebenso in der Zielstellung der Definition verankert ist, reicht das noch nicht aus für einen möglichen Vergleich. Deshalb wurde das Augenmerk auf die Fragen nach dem Nutzen der Digitalen Fabrik gelegt, sowie der notwendigen Weiterentwicklung der Digitalen Fabrik um Nutzen zu generieren. Dabei wurde festgestellt, dass die Digitale Fabrik auf einem sehr guten Weg ist, in die Industrie 4.0 integriert zu werden, da sie zum einen schon in der Praxis etabliert ist und ständig weiterentwickelt wird. Dadurch können entsprechende Kostenvorteile generiert werden, wie z. B. durch die Reduktion von Entwicklungs-, Einführungs- und Schulungskosten. Weiterentwicklungspotentiale wurden folgende Herausgearbeitet: Die digitale Fabrik sollte sich innerhalb der Industrie 4.0 immer näher an die reale Welt annähern. Indem z. B. die Materialflusssimulationen um eine ganzheitliche Sicht aller Ressourcen erweitert wird. Sinnvoll wäre auch, dass die Produktionsanlagen ihre eigenen Konstruktionsdaten, sowie virtuelle Modelle speichern, welche dann über Schnittstellen einfach in digitale Fabrikmodelle übertragen werden können um vollständiges Modell, mit Ist-Daten zu erhalten. Das wäre eine sinnvolle Kombination von Eingebetteten Systemen und der Digitalen Fabrik, wofür aber z. B. klar definierte Schnittstellen zwischen der realen Fabrik und den digitalen Modellen geschaffen werden müssen, sowie in ein Framework eingebettet und eine Industrie 4.0-tauglichen Fertigungsumgebung geschaffen werden. Aus der Planung und dem Einsatz kooperierender und teils autonomer Systeme ergeben sich ganz neue Herausforderungen für die digitale Fabrik, weil die Datenaufbereitung, -analyse und visualisierung überdacht werden müssen. So war sie bis jetzt für die Interaktion mit Planern erdacht und soll zukünftig auch M2M-Komunikation können. Weitere Entwicklungsfelder ergeben sich in Bezug auf die Interoperabilität und Echtzeitfähigkeit der Methoden und Werkzeuge durch die autonome Produktionssteuerung. Nicht alle Weiterentwicklungen sind notwendig für eine Integration aber über lange Sicht wünschenswert, damit die Digitale Fabrik, den Platz in der Industrie 4.0 bekommt, der ihren Möglichkeiten entspricht.