Diploma and Master Theses

Results: 120
Created on: Sat, 24 Feb 2024 23:03:34 +0100 in 0.0587 sec


Hanisch, Marco;
Dynamisches Experimentdesign für teilausgeführte Experimentpläne im Kontext von Data Farming. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

In dieser Arbeit wird überprüft ob und in welcher Weise Experimentdesigns bereits während der Durchführung dynamisch angepasst werden können. Der Wunsch dies ausführen zu können entsteht aufgrund des großen Aufwandes, besonders hinsichtlich der genutzten Ressourcen. Dabei werden zu Beginn verschiedene Experimentdesigns vorgestellt. Zudem werden die notwendigen Grundlagen zur Beurteilung der Qualität eines Experimentdesigns dargestellt, wie Orthogonalität, Space Filling, Randomisierung oder Blockbildung. Die detailreich vorgestellten Experimentdesigns entspringen dabei sowohl der Gruppe an faktoriellen Experimentdesigns als auch der Gruppe an modernen Experimentdesigns. Zudem werden verschiedene Methoden gezeigt, wodurch versucht wird die Experimentdesigns sequenziell beziehungsweise dynamisch durchzuführen. Danach wird auf das Themengebiet des Data Farming eingegangen. Diese Technik von Big Data wird genutzt um mittels Experimenten und Simulationen Daten zu generieren und auszuwerten. Für die strukturierte Arbeitsweise beim Data Farming werden dabei zum Beispiel die zuvor vorgestellten Experimentdesigns genutzt. Im weiteren Kapitel dieser Arbeit wird untersucht inwiefern einige der meistgenutzten Experimentdesigns dynamisch, also noch bei der Ausführung anpassbar sind. Dabei wird dies bei dem 2k-Faktoriellen Experimentdesign, einem vollfaktoriellen Experimentdesign und bei dem Latin Hypercube Experimentdesign untersucht. Zur Demonstration dieser Änderungen wird ein Prototyp vorgestellt, durch welchen Experimentpläne dynamisch angepasst werden können. Dieser Prototyp wird im letzten Kapitel vorgestellt und mittels eines kleinen Experiment demonstriert.



Häfner, Luise;
Potenziale zur energetischen Optimierung von Produktionssystemen. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Vor dem Hintergrund des weltweit zwingenden Klimaschutzes und der damit verbundenen Reduzierung des gesamtgesellschaftlichen Energieverbrauchs beschäftigt sich die vorliegende Masterarbeit mit den Potenzialen der energetischen Optimierung von Produktionssystemen. Dem Thema wird sich über zwei Forschungsfragen genähert, sodass sich die Arbeit in zwei Teile teilt. Im theoretischen Teil wird ein Überblick zur energetischen Optimierung und den damit verbundenen Optimierungszielen, Parametern und Nebenbedingungen gegeben. Der dafür erarbeitete morphologische Kasten soll Stakeholdern einen schnellen Einstieg in das Thema ermöglichen. Zusätzlich werden bisher in Veröffentlichungen verwendete Optimierungsmethoden mit Schwerpunkt auf der simulationsbasierten Optimierung (SBO) vorgestellt. Im praktischen Teil der Arbeit wird als Fallbeispiel die Produktion von Nutzen für die Elektronik auf einem Trocknungsofen ausgewählt. Dafür wird ein hybrides Simulationsmodell in der gewählten Simulationsanwendung AnyLogic erstellt, wobei der Materialfluss mit diskret-ereignisorientierter Simulation (DES), das Ofenverhalten mit agentenbasierter Simulation (ABS) und der Energieverbrauch mit System Dynamics (SD) modelliert werden. Anschließend wird mit diesem Simulationsmodell eine SBO durchgeführt, um zu erforschen, welchen Einfluss die Trocknungsofen-Losgröße auf den Energieverbrauch des Produktionssystems hat. Die Ergebnisse der Experimente werden zusammengefasst, Empfehlungen für die Anwendung der SBO zur energetischen Optimierung von Produktionssystemen gegeben sowie mögliche Erweiterungen des Simulationsmodells und der damit verbundenen SBO aufgezeigt. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse, einer kritischen Würdigung und einem Ausblick auf weitere Forschungsbereiche und -themen.



Entwicklung einer simulationsbasierten Methodik zur Validierung und Optimierung von APS-Planungsergebnissen. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Produktionssysteme sind komplexe sozioökonomische Systeme, die von stochastischen Einflüssen beeinflusst werden. Das macht die Planung von Aktivitäten und Ereignissen zu einer anspruchsvollen Aufgabe. Advanced Planning Systeme sollen die Planungseinheiten des Produktionssystems unterstützen, können jedoch in der Praxis nicht immer optimal arbeiten, um die theoretischen Lösungen ihrer Methoden zu reproduzieren. Diese Systeme verwenden Modelle, die von Experten entworfen werden müssen. Die Herausforderung besteht darin, APS-Modelle zu entwerfen, die im realen System optimale und zulässige Lösungen bieten. Im Rahmen dieser Arbeit wurde ein Konzept zur simulationsbasierten Validierung und Optimierung der Planungsergebnisse von APS-Systemen entwickelt. Bevor die Pläne des APS-Systems im realen System umgesetzt werden, werden sie mithilfe einer Materialflusssimulation validiert und gegebenenfalls angepasst, bis die Planungsqualität innerhalb eines festgelegten Toleranzbereichs liegt. Dazu werden Qualitätskennzahlen eingeführt und die optimale Planung wird durch Parametervariationen und Anpassungen des Datenmodells des APS-Systems approximiert. Im Rahmen dieser Arbeit wurden weitere Potenziale für eine Erweiterung der Methodik identifiziert, wie zum Beispiel die kollaborative, standortübergreifende Simulation von Wertschöpfungsnetzwerken, in denen die beteiligten Produktionssysteme sich gegenseitig beeinflussen.



Gräßner, Rabea Wiebke;
Sequential Pattern Mining für Eventlogs im Kontext von Data Farming. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Grundlage des Sequential Pattern Mining bilden Sequenzen, die zur Mustersuche miteinander verglichen werden können. Das Sequential Pattern Mining hat den Ursprung in der Warenkorbanalyse. Ein Kunde kauft zu einem bestimmten Zeitpunkt in einer sogenannten Transaktion mindestens ein Produkt. Dieser Transaktion lässt sich eindeutig ein Kunde, eine Transaktionsnummer sowie der Inhalt der Transaktion zuordnen. Jeder Kunde bildet eine eigene Sequenz. Eventlogs beinhalten eindeutige Ereignis-Vorgangs-Paare. Das bedeutet, dass jedem eindeutig gekennzeichneten Vorgang mindestens ein Ereignis zugeordnet wird. Auf dieser Basis arbeitet der XES-Standard zur Speicherung der Eventlogs. Der Kunde bildet den Vorgang, die Transaktion bildet das Ereignis. Dieser Zuordnung können dann noch Attribute mitgegeben werden, die sich zusätzlich auswerten lassen. Im Produktionskontext gibt es allerdings keine eindeutige Zuordnung von Kunden, Transaktionen und Produkten. Es finden nicht nur lokale Ereignisse statt, die speziell einen Kunden oder eine Transaktion betreffen, sondern es können auch globale Ereignisse auftreten. Diese globalen Ereignisse haben Auswirkungen auf sämtliche Vorgänge im System. Durch die übergreifend wirkenden Ereignisse gibt es nicht ausschließlich eindeutige Ereignis-Vorgangs-Paare. Der XES-Standard der Eventlogs lässt sich in diesem Kontext nicht anwenden. Die Bildung von Sequenzen basierend auf einzelnen Vorgängen ist demnach nicht zielführend. Sequenzen müssen anderweitig gebildet werden. Dafür werden in der Arbeit verschiedene Ansätze diskutiert. In diesem Kontext wird auch analysiert, ob alle Ereignisse oder nur bestimmte, im Vorfeld festgelegte, diskrete Ereignisse aufgezeichnet werden sollen und welche Zusatzinformationen trotz der Verwendung diskreter Ereignisse relevant sein könnten. Bei der Ereignisaufzeichnung ist darauf zu achten, den zeitlichen Verlauf diverser Größen nachvollziehbar zu gestalten. Ziel der Arbeit ist es, die Aufzeichnung der Ereignisse nicht nur an einem einzelnen Simulationslauf durchzuführen, sondern sie auch in den Kontext des Data Farming zu setzen. Dabei muss sichergestellt werden, dass Muster betrachtet werden, die auch in den einzelnen Simulationsläufen des Data-Farming-Experiments häufig sind. Aus den gefundenen Mustern sollen dann Regeln, die sogenannten Assoziationsregeln, abgeleitet werden. Die aufgestellten Assoziationsregeln betreffen einerseits die Zusammenhänge im System, andererseits die Beziehung zwischen Eingabeparameterkonfiguration und Musterentdeckung. Nachdem das Konzept aufgestellt wurde, wird dieses an einem Anwendungsszenario validiert. Die Arbeit endet mit einer nichtabschließenden Aufzählung von relevanten Ereignissen, die zum Ableiten von Zusammenhängen herangezogen werden können. Die vorliegende Arbeit verknüpft Sequential Pattern Mining und die Assoziationsanalyse als Data-Mining-Methoden.



Kaiser, Max;
Einsatz künstlicher Intelligenz zur Standortplanung und Transportnetzwerkoptimierung. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel dieser Arbeit ist die Entwicklung einer Methodik, um mithilfe von KI die Standortplanung und die Transportnetzoptimierung im Bereich der Distributionslogistik durchzuführen. Der dafür ausgewählte Ansatz ist die Suche nach Lagerstandorten, die so gelegen sind, dass die Summe der Distanzen vom Lager aus zu den Kunden unter Berück-sichtigung unterschiedlicher Gewichtungen der Kunden möglichst gering ist. Bei der Fest-legung mehrerer Lagerstandorte müssen die Empfänger zunächst in Gruppen aufgeteilt werden. Ein weiteres Ziel der Standortplanung ist die Bestimmung der Anzahl an Lageror-ten. Die Transportnetzoptimierung beschränkt sich in dieser Arbeit lediglich auf die Be-stimmung der Lager, in denen ein bestimmtes Produkt gelagert werden soll. Eine Möglich-keit zur Unterteilung von Kunden ist die Zuordnung eines Kunden zu der Kundengruppe, zu der er die höchste Ähnlichkeit aufweist. Diese Zuordnung soll durch eine Maschine er-folgen. Dabei kommen Methoden des maschinellen Lernens zum Einsatz, welche ein Teil-gebiet der künstlichen Intelligenz darstellen. Konkret handelt es sich um Zentroid-basiertes Clustering. Da die zur Verfügung stehenden Daten nicht vollständig ausreichen, wird die Methodik außerdem um eine Initialisierungsphase und um eine Datenaufbereitungsphase ergänzt.



Hartnagel, Mike;
Multi-agent deep reinforcement learning in modular production systems. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In den vergangenen Jahren wurden neue Methoden zur Erhöhung der Flexibilität von Fertigungssystemen entwickelt. Eine dieser Methoden besteht darin, anstelle einer Fließfertigungslinie die Fertigungsstationen in einem matrixförmigen Layout anzuordnen und starre Fördersysteme durch fahrerlose Transportsysteme (FTS) zu ersetzen. Die FTS transportieren die Werkstücke von Fertigungsstation zu Fertigungsstation in variabler Reihenfolge. Diese Methode wird als modulares Produktionssystem (MPS) bezeichnet. Aufgrund der Komplexität und Dynamik eines modularen Produktionssystems ergibt sich die Frage nach einem geeigneten Steuerungssystem zur Bestimmung der optimalen Folge von Fertigungsoperationen und der optimalen Route der Werkstücke von Fertigungsstation zu Fertigungsstation. Da die Route der Werkstücke von FTS bestimmt wird, kann dieses Steuerungsproblem als ein Problem der Entscheidungsfindung von FTS in modularen Produktionssystemen interpretiert werden. Ziel dieser Arbeit ist es, die Anwendbarkeit von Multi-Agent Deep Reinforcement Learning (MADRL) in Kombination mit diskret-ereignisgesteuerter Simulation zur Lösung dieses Steuerungsproblems zu testen. Dazu wurde eine MADRL Methode, genannt Multi-Agent Proximal Policy Optimization (MAPPO), in Python implementiert. Die implementierte Software wurde dann mit einem Plant Simulation-Modell eines modularen Produktionssystems verbunden, um die Agenten, welche die FTS steuern, zu trainieren. Simulationstests zeigen, dass die trainierten Agenten vergleichbare Ergebnisse wie eine heuristische Steuerungsstrategie und bessere Ergebnisse als eine zufällige Steuerungs-strategie erzielen. Darüber hinaus erzielen sie bessere Ergebnisse als die Single-Agent Deep Reinforcement-Learning Methode Proximal Policy Optimization (PPO), bei der alle FTS von einem einzigen Agenten gesteuert werden. Diese Ergebnisse zeigen die Anwendbarkeit von MADRL in Kombination mit diskret-ereignisgesteuerter Simulation zur Steuerung von FTS in modularen Produktionssystemen und die Vorteilhaftigkeit von MAPPO gegenüber der Single-Agent Methode PPO.



Process Mining zur Untersuchung von gefarmten Daten. - Ilmenau. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Ziel der vorliegenden Masterarbeit ist zu untersuchen, inwiefern Process-Mining-Methoden auf gefarmte Daten angewendet werden können. Process Mining wird normalerweise auf den Daten eines Realsystems betrieben, um Erkenntnisse über einen Prozess zu erlangen. Prozesskenntnisse führen dazu, dass Realprozesse entdeckt werden, Abweichungen zwischen der Prozessdefinition und dem Realprozess aufgedeckt werden und sich daraus Prozessverbesserungen ableiten lassen. Process Mining betrachtet die Prozesse aus verschiedenen Perspektiven, um die Erkenntnisse vollumfänglich gewinnen zu können. Grundlage des Process Mining bilden Eventlogs. Diese fordern eine eindeutige Zuordnung von Ereignissen zu einem bestimmten Vorgang. Eine eindeutige, vorgangsspezifische Kennzeichnung aller Vorgänge ist Pflicht. Währenddessen Process Mining mit realen Daten arbeitet, arbeitet Data Farming auf einem virtuellen System. In einem Simulationsmodell werden viele verschiedene Eingabeparameter verändert, um Wirkungszusammenhänge im Modell aufzudecken. Jede Eingabeparameterkonfiguration bildet die Grundlage für ein eigenes Experiment. Im Rahmen des Data Farming werden unzählige Experimente mit unterschiedlichen Eingabeparameterkonfigurationen durchgeführt. Die mittels Data Farming generierten, virtuellen Daten werden anschließend mittels Process Mining ausgewertet. Für die sinnvolle Kombination der beiden Methoden wurde ein Konzept erarbeitet, wie die einzelnen Vorgänge aus den unterschiedlichen Experimenten eindeutig gekennzeichnet werden können. Die Eventlogs wurden auch um zusätzliche Informationen ergänzt. Für die Validierung des Konzepts entstand ein Simulationsmodell, auf dem Data Farming angewendet wurde. Petri-Netze, Pfade aus den Eventlogs und Diagramme bilden die Grundlage für die Auswertung der durch das Simulationsmodell generierten Daten. Währenddessen Petri-Netze und Pfaddarstellungen überwiegend der Prozessentdeckung dienen, werden mittels Diagrammen Wirkungszusammenhänge aufgedeckt. Durch die unterschiedlichen Auswertungsmethoden konnten mehrere Perspektiven des Process Mining Anwendung finden. Bestimmte Eingabeparameterkonfigurationen führen zu längeren Durchlaufzeiten im Prozess. Durch die Kombination der beiden Methoden konnte auch ein Fehler im Simulationsprogramm aufgedeckt werden. Die Untersuchung hat gezeigt, dass sich Data Farming und Process Mining sinnvoll nacheinander anwenden lassen und die Kombination beider Methoden einen Mehrwert liefert.



Voigt, Rafael;
Resilienz von digitalen Zwillingen gegenüber kontinuierlich veränderlichen Systemen . - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Digitale Zwillinge in der Produktion sind im Kontext von Industrie 4.0 und intelligenten Fabriken von immer größerer Bedeutung. Durch neue Technologien und große Datenmengen, die in heutigen Produktionsstätten entstehen, können digitale Zwillinge immer häufiger Einzug in die Softwarelandschaft von Unternehmen finden. Jedoch muss dafür die Problematik des veränderlichen Systems „Produktionsstätte“ behandelt werden. Systemveränderungen, die durch Umbau des Systems zustande kommen, sind dabei die weniger interessanten Veränderungen, da offensichtlich ist, dass der digitale Zwilling ebenfalls geändert werden muss. Der tägliche Verschleiß von Maschinen und Werkzeugen, kontinuierliche Prozessoptimierung, sowie der ständige Wandel, dem Prozesse unterliegen sind alles relevante Faktoren, die es in Bezug auf die Anwendung digitaler Zwillinge in diesem Bereich zu berücksichtigen gilt. In der vorliegenden Arbeit wird thematisiert, wie ein digitaler Zwilling aktuell bleiben und Resilienz gegen die stetigen Veränderungen in modernen Fabriken aufbauen kann. Dafür werden Methoden vorgestellt, die eine Adaption des digitalen Zwillings ermöglichen. Adaptionsbedarfsanalyse, die Quantifizierung von Veränderungen und die Adaptionsdurchführung sind Fokus dieser Arbeit. Verschiedene stochastische Verteilungen für die Beschreibung des Systemverhaltens werden betrachtet. Statistische Hypothesentests wurden als zentrale Möglichkeit identifiziert, Adaptionsbedarf festzustellen. Gezieltes Stichprobenziehen aus Produktionsdaten ermöglichte die Schätzung der relevanten Verteilungen. Mithilfe von Schätzern, die in Iterationen an die Stichprobenverteilung angepasst werden, konnte eine Parametrisierung der Stichprobenverteilungen durchgeführt werden. In einem Prototyp-System mit einer Emulation der Realität, digitalem Zwilling und Datenbank des digitalen Zwillings wurden diese Methoden erfolgreich implementiert. Von der Emulation verschiedenartig verteilte Daten wurden unter Nutzung des Prototyps generiert. Die Adaption des digitalen Zwillings wurde über die Datenbank bewirkt. Die Wirksamkeit der kombinierten Hypothesentests mit Anpassungstests für die Adaption der Parameter im digitalen Zwilling wurde mithilfe von Experimenten evaluiert. Diese Experimente zeigen, dass mit dem System Anpassungen durchgeführt werden. Die Verteilungstyperkennung wurde als Kriterium für eine treffende Schätzung der Verteilungsparameter identifiziert. Wird die Verteilung richtig erkannt, werden auch die Parameter dieser Verteilungen treffend geschätzt. Die nötigen Schritte für eine Weiterentwicklung des Systems, sowie zukünftige Forschungsrichtungen wurden in einem Ausblick und Fazit diskutiert.



Reckleben, Nina;
Robustheitsuntersuchungen für Verkehrssimulationen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Mobilität ist ein wesentlicher Bestandteil des alltäglichen Lebens, weshalb es wichtig ist, die Funktionalität von Verkehrsstrukturen zu gewährleisten. Im Rahmen dieser Arbeit wird die Frage beantwortet, wie eine Methode gestaltet sein sollte, mit der sich die Robustheit von Verkehrssystemen gegenüber äußeren nicht steuerbaren Einflüssen bewerten lässt. Hierfür werden verschiedene Fakten und Methoden der Verkehrssimulation sowie Robustheitsuntersuchungen dargelegt. Dabei spielt vor allem das Verständnis von Robustheit nach dem Wissenschaftler G. Taguchi eine wichtige Rolle, denn er unterscheidet bei den Einflussgrößen eines Systems zwischen solchen, die im Vorhinein bestimmt und solchen, die nicht bestimmt werden können. Die Größen werden in einem Versuchsplan gegenübergestellt und anschließend ihr Einfluss auf das System untersucht. Die Verlustfunktionen nach Taguchi finden ebenfalls ihre Anwendung und geben die Parametereinstellung wieder, bei der das System in seinen Ergebnisgrößen die niedrigsten Schwankungen aufweist. Die durchgeführte und später ausgewertete Machbarkeitsanalyse an einem Prototyp aus der Praxis untermauert, dass dieses entwickelte Konzept eine wirksame Methode der Robustheitsuntersuchungen für Verkehrssysteme ist.



Zong, Xinyu;
Automatische Clusteranalyse mittels geeigneter Metriken. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Bei Clustering-Algorithmen des maschinellen Lernens hängen die Clustering-Ergebnisse nicht nur vom Modell des Algorithmus ab, sondern auch von der Auswahl der Hyperparameter. Im Allgemeinen erfolgt die Auswahl der Hyperparameter manuell. Nach jeder Eingabe der Hyperparameterkombination werden die Ergebnisse der Berechnung ausgedruckt und eine bestimmte Metrik zur Auswertung ausgewählt. Dies ist zu zeit- und arbeitsintensiv, und die Auswahl der geeigneten Hyperparameter hängt von der Erfahrung des Benutzers ab. Deshalb ist die automatische Parametrisierung eine bessere Lösung. Der Schwerpunkt dieser Arbeit konzentriert sich auf der automatischen Parametrisierung im Clustering-Algorithmus und der Auswahl der geeigneten Metrik für die Auswertung sowie der Auswahl der optimalen Parameterkombination. Zu diesem Zweck wird zunächst die Literaturrecherche durchgeführt, um Clustering-Algorithmen und die Algorithmen zur automatischen Parametrisierung zu erlernen, dann ein Versuchsplan festgelegt und das Modell zum Testen aufgebaut: Zunächst wird ein Hyperparameterraum eingerichtet und der Datensatz importiert, das Modell des Clustering-Algorithmus wird mit dem Hyperparameter-Optimierer gekoppelt und die Clustering-Ergebnisse sowie die Bewertung der verwendeten Metrik werden ausgegeben. Schließlich werden die verschiedenen automatischen Parametrisierungsstrategien (hyperparametrische Optimierer) für die verschiedenen Algorithmen bewertet und die besten Strategien für die verschiedenen Clustering-Algorithmen ausgewählt.