Diploma and Master Theses

Results: 116
Created on: Tue, 07 Feb 2023 23:03:21 +0100 in 0.0629 sec


Kaiser, Max;
Einsatz künstlicher Intelligenz zur Standortplanung und Transportnetzwerkoptimierung. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel dieser Arbeit ist die Entwicklung einer Methodik, um mithilfe von KI die Standortplanung und die Transportnetzoptimierung im Bereich der Distributionslogistik durchzuführen. Der dafür ausgewählte Ansatz ist die Suche nach Lagerstandorten, die so gelegen sind, dass die Summe der Distanzen vom Lager aus zu den Kunden unter Berück-sichtigung unterschiedlicher Gewichtungen der Kunden möglichst gering ist. Bei der Fest-legung mehrerer Lagerstandorte müssen die Empfänger zunächst in Gruppen aufgeteilt werden. Ein weiteres Ziel der Standortplanung ist die Bestimmung der Anzahl an Lageror-ten. Die Transportnetzoptimierung beschränkt sich in dieser Arbeit lediglich auf die Be-stimmung der Lager, in denen ein bestimmtes Produkt gelagert werden soll. Eine Möglich-keit zur Unterteilung von Kunden ist die Zuordnung eines Kunden zu der Kundengruppe, zu der er die höchste Ähnlichkeit aufweist. Diese Zuordnung soll durch eine Maschine er-folgen. Dabei kommen Methoden des maschinellen Lernens zum Einsatz, welche ein Teil-gebiet der künstlichen Intelligenz darstellen. Konkret handelt es sich um Zentroid-basiertes Clustering. Da die zur Verfügung stehenden Daten nicht vollständig ausreichen, wird die Methodik außerdem um eine Initialisierungsphase und um eine Datenaufbereitungsphase ergänzt.



Hartnagel, Mike;
Multi-Agent Deep Reinforcement Learning in Modular Production Systems. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In den vergangenen Jahren wurden neue Methoden zur Erhöhung der Flexibilität von Fertigungssystemen entwickelt. Eine dieser Methoden besteht darin, anstelle einer Fließfertigungslinie die Fertigungsstationen in einem matrixförmigen Layout anzuordnen und starre Fördersysteme durch fahrerlose Transportsysteme (FTS) zu ersetzen. Die FTS transportieren die Werkstücke von Fertigungsstation zu Fertigungsstation in variabler Reihenfolge. Diese Methode wird als modulares Produktionssystem (MPS) bezeichnet. Aufgrund der Komplexität und Dynamik eines modularen Produktionssystems ergibt sich die Frage nach einem geeigneten Steuerungssystem zur Bestimmung der optimalen Folge von Fertigungsoperationen und der optimalen Route der Werkstücke von Fertigungsstation zu Fertigungsstation. Da die Route der Werkstücke von FTS bestimmt wird, kann dieses Steuerungsproblem als ein Problem der Entscheidungsfindung von FTS in modularen Produktionssystemen interpretiert werden. Ziel dieser Arbeit ist es, die Anwendbarkeit von Multi-Agent Deep Reinforcement Learning (MADRL) in Kombination mit diskret-ereignisgesteuerter Simulation zur Lösung dieses Steuerungsproblems zu testen. Dazu wurde eine MADRL Methode, genannt Multi-Agent Proximal Policy Optimization (MAPPO), in Python implementiert. Die implementierte Software wurde dann mit einem Plant Simulation-Modell eines modularen Produktionssystems verbunden, um die Agenten, welche die FTS steuern, zu trainieren. Simulationstests zeigen, dass die trainierten Agenten vergleichbare Ergebnisse wie eine heuristische Steuerungsstrategie und bessere Ergebnisse als eine zufällige Steuerungs-strategie erzielen. Darüber hinaus erzielen sie bessere Ergebnisse als die Single-Agent Deep Reinforcement-Learning Methode Proximal Policy Optimization (PPO), bei der alle FTS von einem einzigen Agenten gesteuert werden. Diese Ergebnisse zeigen die Anwendbarkeit von MADRL in Kombination mit diskret-ereignisgesteuerter Simulation zur Steuerung von FTS in modularen Produktionssystemen und die Vorteilhaftigkeit von MAPPO gegenüber der Single-Agent Methode PPO.



Process Mining zur Untersuchung von gefarmten Daten. - Ilmenau. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Ziel der vorliegenden Masterarbeit ist zu untersuchen, inwiefern Process-Mining-Methoden auf gefarmte Daten angewendet werden können. Process Mining wird normalerweise auf den Daten eines Realsystems betrieben, um Erkenntnisse über einen Prozess zu erlangen. Prozesskenntnisse führen dazu, dass Realprozesse entdeckt werden, Abweichungen zwischen der Prozessdefinition und dem Realprozess aufgedeckt werden und sich daraus Prozessverbesserungen ableiten lassen. Process Mining betrachtet die Prozesse aus verschiedenen Perspektiven, um die Erkenntnisse vollumfänglich gewinnen zu können. Grundlage des Process Mining bilden Eventlogs. Diese fordern eine eindeutige Zuordnung von Ereignissen zu einem bestimmten Vorgang. Eine eindeutige, vorgangsspezifische Kennzeichnung aller Vorgänge ist Pflicht. Währenddessen Process Mining mit realen Daten arbeitet, arbeitet Data Farming auf einem virtuellen System. In einem Simulationsmodell werden viele verschiedene Eingabeparameter verändert, um Wirkungszusammenhänge im Modell aufzudecken. Jede Eingabeparameterkonfiguration bildet die Grundlage für ein eigenes Experiment. Im Rahmen des Data Farming werden unzählige Experimente mit unterschiedlichen Eingabeparameterkonfigurationen durchgeführt. Die mittels Data Farming generierten, virtuellen Daten werden anschließend mittels Process Mining ausgewertet. Für die sinnvolle Kombination der beiden Methoden wurde ein Konzept erarbeitet, wie die einzelnen Vorgänge aus den unterschiedlichen Experimenten eindeutig gekennzeichnet werden können. Die Eventlogs wurden auch um zusätzliche Informationen ergänzt. Für die Validierung des Konzepts entstand ein Simulationsmodell, auf dem Data Farming angewendet wurde. Petri-Netze, Pfade aus den Eventlogs und Diagramme bilden die Grundlage für die Auswertung der durch das Simulationsmodell generierten Daten. Währenddessen Petri-Netze und Pfaddarstellungen überwiegend der Prozessentdeckung dienen, werden mittels Diagrammen Wirkungszusammenhänge aufgedeckt. Durch die unterschiedlichen Auswertungsmethoden konnten mehrere Perspektiven des Process Mining Anwendung finden. Bestimmte Eingabeparameterkonfigurationen führen zu längeren Durchlaufzeiten im Prozess. Durch die Kombination der beiden Methoden konnte auch ein Fehler im Simulationsprogramm aufgedeckt werden. Die Untersuchung hat gezeigt, dass sich Data Farming und Process Mining sinnvoll nacheinander anwenden lassen und die Kombination beider Methoden einen Mehrwert liefert.



Voigt, Rafael;
Resilienz von digitalen Zwillingen gegenüber kontinuierlich veränderlichen Systemen . - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Digitale Zwillinge in der Produktion sind im Kontext von Industrie 4.0 und intelligenten Fabriken von immer größerer Bedeutung. Durch neue Technologien und große Datenmengen, die in heutigen Produktionsstätten entstehen, können digitale Zwillinge immer häufiger Einzug in die Softwarelandschaft von Unternehmen finden. Jedoch muss dafür die Problematik des veränderlichen Systems „Produktionsstätte“ behandelt werden. Systemveränderungen, die durch Umbau des Systems zustande kommen, sind dabei die weniger interessanten Veränderungen, da offensichtlich ist, dass der digitale Zwilling ebenfalls geändert werden muss. Der tägliche Verschleiß von Maschinen und Werkzeugen, kontinuierliche Prozessoptimierung, sowie der ständige Wandel, dem Prozesse unterliegen sind alles relevante Faktoren, die es in Bezug auf die Anwendung digitaler Zwillinge in diesem Bereich zu berücksichtigen gilt. In der vorliegenden Arbeit wird thematisiert, wie ein digitaler Zwilling aktuell bleiben und Resilienz gegen die stetigen Veränderungen in modernen Fabriken aufbauen kann. Dafür werden Methoden vorgestellt, die eine Adaption des digitalen Zwillings ermöglichen. Adaptionsbedarfsanalyse, die Quantifizierung von Veränderungen und die Adaptionsdurchführung sind Fokus dieser Arbeit. Verschiedene stochastische Verteilungen für die Beschreibung des Systemverhaltens werden betrachtet. Statistische Hypothesentests wurden als zentrale Möglichkeit identifiziert, Adaptionsbedarf festzustellen. Gezieltes Stichprobenziehen aus Produktionsdaten ermöglichte die Schätzung der relevanten Verteilungen. Mithilfe von Schätzern, die in Iterationen an die Stichprobenverteilung angepasst werden, konnte eine Parametrisierung der Stichprobenverteilungen durchgeführt werden. In einem Prototyp-System mit einer Emulation der Realität, digitalem Zwilling und Datenbank des digitalen Zwillings wurden diese Methoden erfolgreich implementiert. Von der Emulation verschiedenartig verteilte Daten wurden unter Nutzung des Prototyps generiert. Die Adaption des digitalen Zwillings wurde über die Datenbank bewirkt. Die Wirksamkeit der kombinierten Hypothesentests mit Anpassungstests für die Adaption der Parameter im digitalen Zwilling wurde mithilfe von Experimenten evaluiert. Diese Experimente zeigen, dass mit dem System Anpassungen durchgeführt werden. Die Verteilungstyperkennung wurde als Kriterium für eine treffende Schätzung der Verteilungsparameter identifiziert. Wird die Verteilung richtig erkannt, werden auch die Parameter dieser Verteilungen treffend geschätzt. Die nötigen Schritte für eine Weiterentwicklung des Systems, sowie zukünftige Forschungsrichtungen wurden in einem Ausblick und Fazit diskutiert.



Reckleben, Nina;
Robustheitsuntersuchungen für Verkehrssimulationen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Mobilität ist ein wesentlicher Bestandteil des alltäglichen Lebens, weshalb es wichtig ist, die Funktionalität von Verkehrsstrukturen zu gewährleisten. Im Rahmen dieser Arbeit wird die Frage beantwortet, wie eine Methode gestaltet sein sollte, mit der sich die Robustheit von Verkehrssystemen gegenüber äußeren nicht steuerbaren Einflüssen bewerten lässt. Hierfür werden verschiedene Fakten und Methoden der Verkehrssimulation sowie Robustheitsuntersuchungen dargelegt. Dabei spielt vor allem das Verständnis von Robustheit nach dem Wissenschaftler G. Taguchi eine wichtige Rolle, denn er unterscheidet bei den Einflussgrößen eines Systems zwischen solchen, die im Vorhinein bestimmt und solchen, die nicht bestimmt werden können. Die Größen werden in einem Versuchsplan gegenübergestellt und anschließend ihr Einfluss auf das System untersucht. Die Verlustfunktionen nach Taguchi finden ebenfalls ihre Anwendung und geben die Parametereinstellung wieder, bei der das System in seinen Ergebnisgrößen die niedrigsten Schwankungen aufweist. Die durchgeführte und später ausgewertete Machbarkeitsanalyse an einem Prototyp aus der Praxis untermauert, dass dieses entwickelte Konzept eine wirksame Methode der Robustheitsuntersuchungen für Verkehrssysteme ist.



Zong, Xinyu;
Automatische Clusteranalyse mittels geeigneter Metriken. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Bei Clustering-Algorithmen des maschinellen Lernens hängen die Clustering-Ergebnisse nicht nur vom Modell des Algorithmus ab, sondern auch von der Auswahl der Hyperparameter. Im Allgemeinen erfolgt die Auswahl der Hyperparameter manuell. Nach jeder Eingabe der Hyperparameterkombination werden die Ergebnisse der Berechnung ausgedruckt und eine bestimmte Metrik zur Auswertung ausgewählt. Dies ist zu zeit- und arbeitsintensiv, und die Auswahl der geeigneten Hyperparameter hängt von der Erfahrung des Benutzers ab. Deshalb ist die automatische Parametrisierung eine bessere Lösung. Der Schwerpunkt dieser Arbeit konzentriert sich auf der automatischen Parametrisierung im Clustering-Algorithmus und der Auswahl der geeigneten Metrik für die Auswertung sowie der Auswahl der optimalen Parameterkombination. Zu diesem Zweck wird zunächst die Literaturrecherche durchgeführt, um Clustering-Algorithmen und die Algorithmen zur automatischen Parametrisierung zu erlernen, dann ein Versuchsplan festgelegt und das Modell zum Testen aufgebaut: Zunächst wird ein Hyperparameterraum eingerichtet und der Datensatz importiert, das Modell des Clustering-Algorithmus wird mit dem Hyperparameter-Optimierer gekoppelt und die Clustering-Ergebnisse sowie die Bewertung der verwendeten Metrik werden ausgegeben. Schließlich werden die verschiedenen automatischen Parametrisierungsstrategien (hyperparametrische Optimierer) für die verschiedenen Algorithmen bewertet und die besten Strategien für die verschiedenen Clustering-Algorithmen ausgewählt.



De Rosa, Leandro;
Prädiktion von Auftragsreihenfolgen für die Simulation von Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Der Einsatz von Werkzeugen und Modellen des Maschinellen Lernens in der Produktionsplanung und -steuerung ist in den letzten Jahren dank des technologischen Fortschritts - hauptsächlich der Datenaufnahme - stark gewachsen. Insbesondere sind prädiktive Systeme für die Vorhersage wichtiger Ereignisse in einem Produktionssystem von besonderem Interesse. In dieser Arbeit sind Methoden des Maschinellen Lernens und der Zeitreihenanalyse und -prognose für die Vorhersage von Auftragsreihenfolgen eingesetzt worden. Dabei ist die Problemstellung in zwei Teilaufgaben - die Absatz- und die Reihenfolgeplanung - unterteilt worden. Um diese zwei Planungen durchzuführen, erfolgte zuerst eine umfassende Literaturauswertung zu den in dieser Arbeit relevanten Forschungsgebieten. Darauf aufbauend ist ein Prototyp zur Lösung der ersten Teilaufgabe entwickelt und implementiert worden. Dieser umfasst die Auswahl der einzusetzenden Verfahren, die Anforderungen an das System sowie die methodische Vorgehensweise für die Durchführung von empirischen Versuchen. Zwei Prädiktionsalgorithmen sind ausgewählt worden: das ARIMA-Modell aus der Zeitreihenanalyse und -prognose stochastischer Prozesse und das CNN-LSTM-Modell aus dem Gebiet des deep learning. Um die Leistungsfähigkeit beider Modelle zu untersuchen, ist eine Zeitreihe betrachtet worden, die eine starke Saisonalität sowie einen quasilinearen Trend aufwies. Dieser Einführungsversuch zeigte eine Vergleichbarkeit zwischen der Genauigkeit der Modelle bei einem kleineren Prognosezeitraum, während das ARIMA-Modell bei längeren Prognosehorizonten eine höhere Genauigkeit erzielte. Die Durchführung empirischer Versuche mit betrieblichen Daten zeigte, dass die Zeitreihen aufgrund ihrer Beschaffenheit schwierig zu prädizieren sind. Jedoch konnte die glatte Komponente durch Vorverarbeitung mittels Kernregression erfasst und mithilfe beider Algorithmen vorhergesagt werden. Das CNN-LSTM-Modell zeigte in diesem Versuch keine Generalisierungsfähigkeit, während das ARIMA-Modell zuverlässigere Prognosen lieferte. Die dadurch erstellen Nachfrageprognosen sind schließlich erfolgreich in einer vereinfachten Produktionsumgebung für die Bestimmung der Reihenfolge für einen vorgegebenen Zeitraum eingesetzt worden. Eine Automatisierung der Verbindung zwischen beiden Planungen ist erreicht worden und stellt somit das relevanteste Forschungsergebnis dieser Arbeit dar.



Laufer, Jannik;
Einsatz von digitalen Werkerassistenzsystemen in der variantenreichen Fertigung. - Ilmenau. - 133 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Industrieunternehmen stehen zunehmend vor der Herausforderung immer kundenspezifischere Erzeugnisse herzustellen. Die resultierende variantenreiche Fertigung steigert oft die Komplexität von Arbeitsaufgaben der Werker und damit deren kognitiven Belastung. Werkerassistenzsysteme versprechen eine bedarfsgerechte Bereitstellung von Informationen, um den Werker bei der Beherrschung dieser Komplexität zu unterstützen. Bei der Auswahl von Werkerassistenzsystemen werden allerdings vermehrt die Rahmenbedingungen in Fertigung und IT sowie die Betreibersicht vernachlässigt. Daher ist es vor allem bei der variantenreichen Fertigung notwendig, die Aufwände für die Bereitstellung und Verwaltung der Informationen im Werkerassistenzsystem zu berücksichtigen. Ziel dieser Masterarbeit ist es, ein Konzept für die Auswahl geeigneter Werkerassistenzsysteme bei variantenreicher Fertigung zu entwickeln. Dadurch soll vermieden werden, dass in der Praxis Systeme eingesetzt werden, deren Aufwände für die Bereitstellung und Verwaltung von Informationen den potentiellen Nutzen übersteigen. Zusätzlich soll geprüft werden, wie eine zukunftsfähige IT-Architektur gestaltet werden kann und ob ein standardisiertes Informationsmodell als Basis verschiedener Lösungen zur Werkerassistenz genutzt werden kann. Dafür wurden Experten befragt, die bereits Werkerassistenzsysteme in einem Industrieunternehmen mit variantenreicher Fertigung einsetzen. Als Grundlage dieser empirischen Untersuchung dienen morphologische Kästen, die sowohl die Lösung als auch deren Rahmenbedingungen in Fertigung und IT klassifizieren. Das Konzept zeigt, dass sich die Werkerassistenzsysteme in drei Archetypen einordnen lassen, die sich hauptsächlich durch den Automatisierungsgrad des Variantenmanagements unterscheiden. Bei manuellen und teilweise generischen Werkerassistenzsystemen erfolgt die Erstellung und Verwaltung von Informationen für jede Variante einzeln. Generische Systeme können diese dahingegen automatisch aus einem Informationsmodell erstellen. In Abhängigkeit der Komplexität von Rahmenbedingungen in der Fertigung konnten so sinnvolle Einsatzbereiche für die Archetypen aus Betreibersicht abgeleitet werden. Das soll z.B. Fertigungsplanern in der Praxis eine systematische Auswahl von sinnvollen Werkerassistenzsystemen ermöglichen, bei denen auch die Aufwände für den Lösungsbetrieb berücksichtigt sind. Es wird zudem am Beispiel eines generischen Werkerassistenzsystems gezeigt, wie eine IT-Architektur und ein Informationsmodell gestaltet werden können. Weiterführende Forschung könnte am Konzept für die Auswahl geeigneter Werkerassistenzsysteme anknüpfen und die Reduktion des Aufwands für die Erstellung und Verwaltung von Informationen bei variantenreicher Fertigung thematisieren.



Rudolf, Marius;
Retrofitting - digitale Ummantelung mittels Edge Computing : intelligentes Nachrüsten zur Digitalisierung bestehender Maschinen. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das Generieren und Gewinnen von Daten für bestehende und zukünftige Produktionsprozesse gewinnt im Zeitalter von Industrie 4.0 zunehmend an Bedeutung. Die Verarbeitung und Nutzung dieser Daten innerhalb eines vernetzten Produktionssystems stellt eine Schlüsselaktivität in Fertigungsunternehmen dar. Dies bietet verschiedene Potentiale für die Unternehmen wie Kostensenkungen, das Vereinfachen von Prozessabläufen oder auch eine schnellere fehlerfreie Fertigung. Demgegenüber stehen große Herausforderungen vor allem für kleinere und mittlere Unternehmen, da diese meist über einen niedrigen Digitalisierungsgrad verfügen und der Übergang zu einer intelligenten Fertigung oftmals mit hohen Investitionen verbunden ist. Ein herausfordernder Aspekt, den allerdings die meisten Fertigungsunternehmen gemeinsam haben, ist eine installierte Basis an älteren Maschinen, die noch nicht mit der Idee der intelligenten Fertigung kompatibel sind, da sie nicht über die benötigte Soft- und Hardware verfügen. Für die Nutzung der Potentiale stehen die Unternehmen vor der Frage, ob sie die Maschinen ersetzen oder die vorhandene Anlage nachrüsten möchten. Retrofitting oder auch Smart Retrofitting wird als eine Maßnahme zur Aufrüstung, Aktualisierung oder Erweiterung und Verbesserung digitaler Funktionen verstanden. Diesen Aspekt greift die vorliegende Masterarbeit auf und beschäftigt sich mit dem intelligenten Nachrüsten eines bestehenden Versuchsaufbaus im speziellen Hinblick auf die Generierung, Verarbeitung und Speicherung von Energie- und Steuerdaten. Als Grundlage werden hierzu wichtige Begrifflichkeiten wie das Retrofitting und Smart Retrofitting anhand des aktuellen Forschungsstandes erläutert. Weiterhin wird erstmalig eine Definition der Begrifflichkeiten der digitalen und datentechnischen Ummantelung geschaffen. Die Hauptaufgabe dieser Arbeit besteht in der Realisierung eines prototypischen Konzepts, welches in der Lage ist, die Steuer- und Energiedaten eines SPS-betriebenen Versuchsaufbaus aufzunehmen, zu verarbeiten und anschließend zur Weiterverarbeitung zur Verfügung zu stellen. Das Konzept wird dabei aufbauend auf den Grundlagen sowie auf den zuvor definierten Anforderungen entwickelt. In dieser Arbeit wird ein Low-Cost Auf-bau geschaffen, der unter der Verwendung von Node-Red, eines Raspberry Pis sowie eines Energiemessgeräts in der Lage ist, die gestellten Anforderung zu erfüllen.



Preußer, Lukas;
Konzeption einer Methode zur Optimierung des Designs von modularen Montagesystemen. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Aufgrund der Globalisierung, der Einführung neuer Technologien und der steigenden Individualisierung von Produkten befindet sich die heutige Fertigungsindustrie in einem sehr komplexen und dynamischen Umfeld. Daher muss die Fertigung flexibel und wandlungsfähig gestaltet werden, damit Unternehmen zukünftig weiterhin erfolgreich am internationalen Markt bestehen können. Modulare Montagesysteme, die Elemente der Industrie 4.0 mit einer werkstattorientierten Fertigung verbinden, weisen eine höhere Flexibilität und Wandlungsfähigkeit als traditionelle Fertigungssysteme auf. Wichtig hierbei sind die Gestaltung und Auslegung dieser Montagesysteme. In dieser Ausarbeitung werden unterschiedliche Gestaltungsdimensionen und verschiedene Bewertungskennzahlen der modularen Montage analysiert. Auf dieser Grundlage wird eine simulationsbasierte Methode zur Optimierung des Designs von modularen Montagesystemen entwickelt. Dabei kommen unterschiedliche Optimierungsalgorithmen zum Einsatz, welche im Verlauf der Ausarbeitung auf zwei Anwendungsbeispiele angewendet und untereinander verglichen werden. Mit Hilfe der Anwendungsbeispiele wird gezeigt, dass sich die entwickelte, simulationsbasierte Methode für die Optimierung des Designs von modularen Montagesystemen eignet.