Diploma and Master Theses

Results: 122
Created on: Wed, 27 Mar 2024 23:06:19 +0100 in 0.0792 sec


Reckleben, Nina;
Robustheitsuntersuchungen für Verkehrssimulationen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Mobilität ist ein wesentlicher Bestandteil des alltäglichen Lebens, weshalb es wichtig ist, die Funktionalität von Verkehrsstrukturen zu gewährleisten. Im Rahmen dieser Arbeit wird die Frage beantwortet, wie eine Methode gestaltet sein sollte, mit der sich die Robustheit von Verkehrssystemen gegenüber äußeren nicht steuerbaren Einflüssen bewerten lässt. Hierfür werden verschiedene Fakten und Methoden der Verkehrssimulation sowie Robustheitsuntersuchungen dargelegt. Dabei spielt vor allem das Verständnis von Robustheit nach dem Wissenschaftler G. Taguchi eine wichtige Rolle, denn er unterscheidet bei den Einflussgrößen eines Systems zwischen solchen, die im Vorhinein bestimmt und solchen, die nicht bestimmt werden können. Die Größen werden in einem Versuchsplan gegenübergestellt und anschließend ihr Einfluss auf das System untersucht. Die Verlustfunktionen nach Taguchi finden ebenfalls ihre Anwendung und geben die Parametereinstellung wieder, bei der das System in seinen Ergebnisgrößen die niedrigsten Schwankungen aufweist. Die durchgeführte und später ausgewertete Machbarkeitsanalyse an einem Prototyp aus der Praxis untermauert, dass dieses entwickelte Konzept eine wirksame Methode der Robustheitsuntersuchungen für Verkehrssysteme ist.



Zong, Xinyu;
Automatische Clusteranalyse mittels geeigneter Metriken. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Bei Clustering-Algorithmen des maschinellen Lernens hängen die Clustering-Ergebnisse nicht nur vom Modell des Algorithmus ab, sondern auch von der Auswahl der Hyperparameter. Im Allgemeinen erfolgt die Auswahl der Hyperparameter manuell. Nach jeder Eingabe der Hyperparameterkombination werden die Ergebnisse der Berechnung ausgedruckt und eine bestimmte Metrik zur Auswertung ausgewählt. Dies ist zu zeit- und arbeitsintensiv, und die Auswahl der geeigneten Hyperparameter hängt von der Erfahrung des Benutzers ab. Deshalb ist die automatische Parametrisierung eine bessere Lösung. Der Schwerpunkt dieser Arbeit konzentriert sich auf der automatischen Parametrisierung im Clustering-Algorithmus und der Auswahl der geeigneten Metrik für die Auswertung sowie der Auswahl der optimalen Parameterkombination. Zu diesem Zweck wird zunächst die Literaturrecherche durchgeführt, um Clustering-Algorithmen und die Algorithmen zur automatischen Parametrisierung zu erlernen, dann ein Versuchsplan festgelegt und das Modell zum Testen aufgebaut: Zunächst wird ein Hyperparameterraum eingerichtet und der Datensatz importiert, das Modell des Clustering-Algorithmus wird mit dem Hyperparameter-Optimierer gekoppelt und die Clustering-Ergebnisse sowie die Bewertung der verwendeten Metrik werden ausgegeben. Schließlich werden die verschiedenen automatischen Parametrisierungsstrategien (hyperparametrische Optimierer) für die verschiedenen Algorithmen bewertet und die besten Strategien für die verschiedenen Clustering-Algorithmen ausgewählt.



De Rosa, Leandro;
Prädiktion von Auftragsreihenfolgen für die Simulation von Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Der Einsatz von Werkzeugen und Modellen des Maschinellen Lernens in der Produktionsplanung und -steuerung ist in den letzten Jahren dank des technologischen Fortschritts - hauptsächlich der Datenaufnahme - stark gewachsen. Insbesondere sind prädiktive Systeme für die Vorhersage wichtiger Ereignisse in einem Produktionssystem von besonderem Interesse. In dieser Arbeit sind Methoden des Maschinellen Lernens und der Zeitreihenanalyse und -prognose für die Vorhersage von Auftragsreihenfolgen eingesetzt worden. Dabei ist die Problemstellung in zwei Teilaufgaben - die Absatz- und die Reihenfolgeplanung - unterteilt worden. Um diese zwei Planungen durchzuführen, erfolgte zuerst eine umfassende Literaturauswertung zu den in dieser Arbeit relevanten Forschungsgebieten. Darauf aufbauend ist ein Prototyp zur Lösung der ersten Teilaufgabe entwickelt und implementiert worden. Dieser umfasst die Auswahl der einzusetzenden Verfahren, die Anforderungen an das System sowie die methodische Vorgehensweise für die Durchführung von empirischen Versuchen. Zwei Prädiktionsalgorithmen sind ausgewählt worden: das ARIMA-Modell aus der Zeitreihenanalyse und -prognose stochastischer Prozesse und das CNN-LSTM-Modell aus dem Gebiet des deep learning. Um die Leistungsfähigkeit beider Modelle zu untersuchen, ist eine Zeitreihe betrachtet worden, die eine starke Saisonalität sowie einen quasilinearen Trend aufwies. Dieser Einführungsversuch zeigte eine Vergleichbarkeit zwischen der Genauigkeit der Modelle bei einem kleineren Prognosezeitraum, während das ARIMA-Modell bei längeren Prognosehorizonten eine höhere Genauigkeit erzielte. Die Durchführung empirischer Versuche mit betrieblichen Daten zeigte, dass die Zeitreihen aufgrund ihrer Beschaffenheit schwierig zu prädizieren sind. Jedoch konnte die glatte Komponente durch Vorverarbeitung mittels Kernregression erfasst und mithilfe beider Algorithmen vorhergesagt werden. Das CNN-LSTM-Modell zeigte in diesem Versuch keine Generalisierungsfähigkeit, während das ARIMA-Modell zuverlässigere Prognosen lieferte. Die dadurch erstellen Nachfrageprognosen sind schließlich erfolgreich in einer vereinfachten Produktionsumgebung für die Bestimmung der Reihenfolge für einen vorgegebenen Zeitraum eingesetzt worden. Eine Automatisierung der Verbindung zwischen beiden Planungen ist erreicht worden und stellt somit das relevanteste Forschungsergebnis dieser Arbeit dar.



Laufer, Jannik;
Einsatz von digitalen Werkerassistenzsystemen in der variantenreichen Fertigung. - Ilmenau. - 133 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Industrieunternehmen stehen zunehmend vor der Herausforderung immer kundenspezifischere Erzeugnisse herzustellen. Die resultierende variantenreiche Fertigung steigert oft die Komplexität von Arbeitsaufgaben der Werker und damit deren kognitiven Belastung. Werkerassistenzsysteme versprechen eine bedarfsgerechte Bereitstellung von Informationen, um den Werker bei der Beherrschung dieser Komplexität zu unterstützen. Bei der Auswahl von Werkerassistenzsystemen werden allerdings vermehrt die Rahmenbedingungen in Fertigung und IT sowie die Betreibersicht vernachlässigt. Daher ist es vor allem bei der variantenreichen Fertigung notwendig, die Aufwände für die Bereitstellung und Verwaltung der Informationen im Werkerassistenzsystem zu berücksichtigen. Ziel dieser Masterarbeit ist es, ein Konzept für die Auswahl geeigneter Werkerassistenzsysteme bei variantenreicher Fertigung zu entwickeln. Dadurch soll vermieden werden, dass in der Praxis Systeme eingesetzt werden, deren Aufwände für die Bereitstellung und Verwaltung von Informationen den potentiellen Nutzen übersteigen. Zusätzlich soll geprüft werden, wie eine zukunftsfähige IT-Architektur gestaltet werden kann und ob ein standardisiertes Informationsmodell als Basis verschiedener Lösungen zur Werkerassistenz genutzt werden kann. Dafür wurden Experten befragt, die bereits Werkerassistenzsysteme in einem Industrieunternehmen mit variantenreicher Fertigung einsetzen. Als Grundlage dieser empirischen Untersuchung dienen morphologische Kästen, die sowohl die Lösung als auch deren Rahmenbedingungen in Fertigung und IT klassifizieren. Das Konzept zeigt, dass sich die Werkerassistenzsysteme in drei Archetypen einordnen lassen, die sich hauptsächlich durch den Automatisierungsgrad des Variantenmanagements unterscheiden. Bei manuellen und teilweise generischen Werkerassistenzsystemen erfolgt die Erstellung und Verwaltung von Informationen für jede Variante einzeln. Generische Systeme können diese dahingegen automatisch aus einem Informationsmodell erstellen. In Abhängigkeit der Komplexität von Rahmenbedingungen in der Fertigung konnten so sinnvolle Einsatzbereiche für die Archetypen aus Betreibersicht abgeleitet werden. Das soll z.B. Fertigungsplanern in der Praxis eine systematische Auswahl von sinnvollen Werkerassistenzsystemen ermöglichen, bei denen auch die Aufwände für den Lösungsbetrieb berücksichtigt sind. Es wird zudem am Beispiel eines generischen Werkerassistenzsystems gezeigt, wie eine IT-Architektur und ein Informationsmodell gestaltet werden können. Weiterführende Forschung könnte am Konzept für die Auswahl geeigneter Werkerassistenzsysteme anknüpfen und die Reduktion des Aufwands für die Erstellung und Verwaltung von Informationen bei variantenreicher Fertigung thematisieren.



Rudolf, Marius;
Retrofitting - digitale Ummantelung mittels Edge Computing : intelligentes Nachrüsten zur Digitalisierung bestehender Maschinen. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das Generieren und Gewinnen von Daten für bestehende und zukünftige Produktionsprozesse gewinnt im Zeitalter von Industrie 4.0 zunehmend an Bedeutung. Die Verarbeitung und Nutzung dieser Daten innerhalb eines vernetzten Produktionssystems stellt eine Schlüsselaktivität in Fertigungsunternehmen dar. Dies bietet verschiedene Potentiale für die Unternehmen wie Kostensenkungen, das Vereinfachen von Prozessabläufen oder auch eine schnellere fehlerfreie Fertigung. Demgegenüber stehen große Herausforderungen vor allem für kleinere und mittlere Unternehmen, da diese meist über einen niedrigen Digitalisierungsgrad verfügen und der Übergang zu einer intelligenten Fertigung oftmals mit hohen Investitionen verbunden ist. Ein herausfordernder Aspekt, den allerdings die meisten Fertigungsunternehmen gemeinsam haben, ist eine installierte Basis an älteren Maschinen, die noch nicht mit der Idee der intelligenten Fertigung kompatibel sind, da sie nicht über die benötigte Soft- und Hardware verfügen. Für die Nutzung der Potentiale stehen die Unternehmen vor der Frage, ob sie die Maschinen ersetzen oder die vorhandene Anlage nachrüsten möchten. Retrofitting oder auch Smart Retrofitting wird als eine Maßnahme zur Aufrüstung, Aktualisierung oder Erweiterung und Verbesserung digitaler Funktionen verstanden. Diesen Aspekt greift die vorliegende Masterarbeit auf und beschäftigt sich mit dem intelligenten Nachrüsten eines bestehenden Versuchsaufbaus im speziellen Hinblick auf die Generierung, Verarbeitung und Speicherung von Energie- und Steuerdaten. Als Grundlage werden hierzu wichtige Begrifflichkeiten wie das Retrofitting und Smart Retrofitting anhand des aktuellen Forschungsstandes erläutert. Weiterhin wird erstmalig eine Definition der Begrifflichkeiten der digitalen und datentechnischen Ummantelung geschaffen. Die Hauptaufgabe dieser Arbeit besteht in der Realisierung eines prototypischen Konzepts, welches in der Lage ist, die Steuer- und Energiedaten eines SPS-betriebenen Versuchsaufbaus aufzunehmen, zu verarbeiten und anschließend zur Weiterverarbeitung zur Verfügung zu stellen. Das Konzept wird dabei aufbauend auf den Grundlagen sowie auf den zuvor definierten Anforderungen entwickelt. In dieser Arbeit wird ein Low-Cost Auf-bau geschaffen, der unter der Verwendung von Node-Red, eines Raspberry Pis sowie eines Energiemessgeräts in der Lage ist, die gestellten Anforderung zu erfüllen.



Preußer, Lukas;
Konzeption einer Methode zur Optimierung des Designs von modularen Montagesystemen. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Aufgrund der Globalisierung, der Einführung neuer Technologien und der steigenden Individualisierung von Produkten befindet sich die heutige Fertigungsindustrie in einem sehr komplexen und dynamischen Umfeld. Daher muss die Fertigung flexibel und wandlungsfähig gestaltet werden, damit Unternehmen zukünftig weiterhin erfolgreich am internationalen Markt bestehen können. Modulare Montagesysteme, die Elemente der Industrie 4.0 mit einer werkstattorientierten Fertigung verbinden, weisen eine höhere Flexibilität und Wandlungsfähigkeit als traditionelle Fertigungssysteme auf. Wichtig hierbei sind die Gestaltung und Auslegung dieser Montagesysteme. In dieser Ausarbeitung werden unterschiedliche Gestaltungsdimensionen und verschiedene Bewertungskennzahlen der modularen Montage analysiert. Auf dieser Grundlage wird eine simulationsbasierte Methode zur Optimierung des Designs von modularen Montagesystemen entwickelt. Dabei kommen unterschiedliche Optimierungsalgorithmen zum Einsatz, welche im Verlauf der Ausarbeitung auf zwei Anwendungsbeispiele angewendet und untereinander verglichen werden. Mit Hilfe der Anwendungsbeispiele wird gezeigt, dass sich die entwickelte, simulationsbasierte Methode für die Optimierung des Designs von modularen Montagesystemen eignet.



Shen, Yipei;
Simulationsbasiertes Reinforcement Learning einer Ampelsteuerung - Entwicklung von Q-Learning und Deep Q-Learning in der Ampelsteuerung. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Der Zweck dieser Masterarbeit ist es, die Anwendung des Reinforcement Learning auf eine Verkehrskreuzung zu untersuchen, um die durchschnittliche Wartezeit von Fahrzeugen zu verringern. In dieser Masterarbeit werden mithilfe der AnyLogic-Simulationssoftware zwei auf Simulationen basierende Reinforcement-Learning-Algorithmen entwickelt: Q-Learning und Deep Q-Learning. Zu diesem Zweck muss zuerst ein Simulationsmodell einer Straßenkreuzung entworfen werden. Dann werden diese beiden Reinforcement-Learning-Algorithmen jeweils mit dem Simulationsmodell gekoppelt. Beide Algorithmen haben die durchschnittliche Wartezeit von Fahrzeugen in den Simulationsergebnissen erfolgreich reduziert. Um die Qualität des Entwicklungsprozesses von Verstärkungslernalgorithmen sicherzustellen, wird in dieser Masterarbeit auch ein qualitätsbasiertes Vorgehensmodell verwendet. Es umfasst die Verifikation und Validierung, um die Qualität der Simulation sicherzustellen, sowie die Qualitätssicherung der Software.



Dontsov, Artem;
Datenvorverarbeitung von Zeitreihenmengen durch Dynamic Time Warping. - Ilmenau. - 127 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die vorliegende Masterarbeit beschäftigt sich mit der in die Datenvorverarbeitung von Zeitreihenmengen mit Dynamic Time Warping. Dafür wird erstmalig eine Definition für den Begriff "dynamische Zeitreihenmengen" geschaffen. Weiterhin wird der klassische Dynamic Time Warping Algorithmus mit verschiedenen Optimierungsmöglichkeiten, aber auch unterschiedliche abgewandelte Dynamic Time Warping Algorithmen vorgestellt, die für verschiedene Anwendungsfälle eingesetzt werden können. Zusätzlich wird anhand der vorgestellten Algorithmen der Fast Shape Dynamic Time Warping Algorithmus entwickelt, der bessere Ergebnisse in ähnlicher Laufzeit wie der klassische Algorithmus erzielt. Um die Eignung des Dynamic Time Warping Algorithmus in der Praxis zu bestimmen, werden drei Anwendungsfälle betrachtet. Hierfür wird ein Sequence-to-Sequence Modell verwendet, welches anhand von Steuerungscode die zugehörigen Stromverbrauchzeitreihen vorhersagt. Beim ersten Anwendungsfall wird die Auswirkung der Erweiterung der vorhandenen Zeitreihenmenge mit verschiedenen Methoden untersucht, wodurch festgestellt werden konnte, dass mit Vergrößerung der Menge sich das Lernverhalten des betrachteten Modells verbessert. Wobei insbesondere die Datenerweiterung mit Fast Shape Dynamic Time Warping in Kombination mit dem Weighted Dynamic Time Warping Barycenter Averaging zu guten Ergebnissen geführt hat. Der zweite Anwendungsfall betrachtet das Vorgewichten des Sequence-to-Sequence Modells mit einem Sequence Autoencoder und einem Sequence Denoising Autoencoder, die mit einer erweiterten Zeitreihenmenge trainiert wurden. Hierbei konnte eine anfängliche Verbesserung der Genauigkeit erzielt werden, die jedoch während des Trainierens wieder abgenommen hat, was darauf schließen lässt, dass die Vorgewichtung des Modells begrenzten Effekt auf das Lernverhalten besitzt. Im letzten Anwendungsfall wird Dynamic Time Warping als Metrik untersucht und mit anderen Metriken verglichen. Dabei konnte eine Ähnlichkeit zur verglichenen Genauigkeitskurve festgestellt werden, was die Nutzung von Dynamic Time Warping als potenzielle Güte- und Fehlerfunktion für zukünftige Forschungen vorstellbar macht.



Landherr, Simon;
Automatisierte Generierung von Simulationsmodellen unter Verwendung des standardisierten Austauschformats AutomationML (AML) : eine Fallstudie in einer betrieblichen Anwendungsumgebung. - Ilmenau. - 127 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die diskret-ereignisorientierte Simulation (DES) wird heutzutage u.a. eingesetzt, um bestehende oder zukünftige Produktionssysteme digital zu analysieren und zu erproben, wie bspw. in der Automobilindustrie oder in der Halbleiterfertigung. Neben einer Vielzahl an Vorteilen, stehen der DES auch Nachteile gegenüber. Die Durchführung von Simulationsstudien ist u.a. zeitaufwändig und komplex. Daneben ist die Informationsbeschaffung für die Simulation aufwändig, da die oft mangelnde Kompatibilität unternehmensinterner Planungswerkzeuge den Datenaustausch behindert. Ein vielversprechender Lösungsansatz ist die automatisierte Generierung von Simulationsmodellen (ASMG), welche bereits seit mehreren Jahren intensiver erforscht wird. Unter der ASMG versteht man den Ablauf spezifischer digitaler Prozeduren bzw. Algorithmen, wodurch automatisiert Simulationsmodelle erzeugt werden. Wichtige Bestandteile innerhalb der ASMG sind Standardisierungen für den Datenaustausch, welche die Strukturierung der Daten im Zuge des Informationstransfers in das Simulationswerkzeug regeln. Bisherige ASMG-Prozesse wurden kaum im praktischen Umfeld erprobt oder beinhalten keine Funktionalitäten, um das dynamische Verhalten (Logik) von Produktionssystemen semantisch abzubilden. Demgegenüber erweist sich insbesondere die manuelle bzw. händische Implementierung der Logikbestandteile von Produktionssystemen als äußerst zeitaufwendig. Zudem werden Standardisierungen teilweise nicht mehr weiterentwickelt oder dienen explizit nicht dem Austausch von Layout-Informationen, die vor allem in den Planungsphasen von Produktionssystemen wichtig sind. Das Ziel dieser Arbeit bestand deshalb darin einen ASMG-Prozess zu entwickeln, der auf dem AutomationML-Standard basiert, bisherige ASMG-Prozessarchitekturen berücksichtigt und an die Rahmenbedingungen eines exemplarischen Unternehmensumfelds angepasst ist. Der AutomationML-Standard gilt als vielversprechend, da er ein ganzheitliches System zur digitalen Abbildung von Produktions- und Fabriksystemen ist, den Datenaustausch fördert und explizit die Logik von Produktionssystemen abbilden kann. Darüber hinaus wurde der ASMG-Prozess an praktischen Anwendungsfällen in Form von Produktionssystem-Layouts erprobt und auf Basis allgemeingültiger Kriterien bewertet. Das Hauptaugenmerk dieser Arbeit lag auf der Erforschung, inwieweit die Logik von Produktionssystemen mithilfe des ASMG-Prozesses abgebildet werden kann und welche Rolle dabei dem AutomationML-Standard zukommt.



Hoinkis, Patrizia Veronika;
Automated generation, validation and verification of simulation models for production and logistics systems. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Als einer der Kernbereiche der Digitalen Fabrik gewinnt die Simulation von Prozessen in Produktion und Logistik zunehmend an Bedeutung. Allerdings steht sie vor der Herausforderung, dass die Durchführung von Simulationsstudien zeit- und kostenintensiv ist. Mit der Automatisierten Generierung von Simulationsmodellen existieren seit Mitte der 1990er-Jahre ein Ansatz, um diese Aufwände deutlich zu reduzieren. Typischerweise basieren die Ansätze der Modellerstellung auf einer validierten Datengrundlage, was in der Praxis jedoch oft nicht garantiert werden kann. Dies bildet den Ansatzpunkt dieser Masterarbeit. In dieser wird eine Methodik zur automatisierten Modellgenerierung entwickelt sowie untersucht, wie derartige Simulationsmodelle verifiziert und validiert werden können. Auf Basis der Nutzeranforderungen wird ein Ansatz zur Modellgenerierung erarbeitet. Hierbei wird eine externe Software entwickelt, welche ausgehend von den Eingangsdaten das Modell erstellt. Die Simulationssoftware dient zur Visualisierung des Modells. Um dieses und weitere automatisiert generierte Simulationsmodelle zu verifizieren und zu validieren, wird ein V&V Vorgehensmodell entwickelt. Als Ansatzpunkte für V&V Aktivitäten werden zum einen die Eingangsdaten, zum anderen das ausführbare Modell gesehen. Für diese beiden V&V-Phasen wird untersucht, welche Aktivitäten durchgeführt werden sollten. Darüber hinaus werden geeignete V&V Techniken diskutiert, wobei ein hoher Automatisierungsgrad angestrebt wird. Für die Eingangsdaten ergeben sich die V&V Aktivitäten aus den Datenqualitätsproblemen beim Einsatz von einzelnen bzw. multiplen Datenquellen. Um diese Datenquellen automatisiert auf fehlende bzw. fehlerhafte Daten zu überprüfen, werden verschiedene, automatisierbare Techniken vorgestellt. Für die automatisierte V&V des ausführbaren Modells eignen sich verschiedene Techniken, die in der Simulationsliteratur diskutiert werden. Zusätzlich empfiehlt sich der Einsatz von subjektiven Techniken, bei denen der Anwender mit einbezogen wird. Durch eine Kombination geeigneter Techniken sowie die Zusammenarbeit mit den Nutzern soll eine hohe Glaubwürdigkeit der Ergebnisse erreicht werden. Das vollständige V&V Vorgehensmodell besteht aus den zwei V&V Phasen mit zugehörigen Aktivitäten und einer Auswahl geeigneter Techniken.