Diplom- und Masterarbeiten

Anzahl der Treffer: 122
Erstellt: Mon, 22 Apr 2024 23:02:40 +0200 in 0.0520 sec


Ye, Hemin;
Dezentrale Steuerung in modularen Produktionssystemen mittels Agententechnologie. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Multiagentensysteme sind ein Bestandteil von verteilter künstlicher Intelligenz. Die einzelnen Agenten dabei verhalten sich autonom, reaktiv und proaktiv in der Umwelt, um ihre Ziele zu erreichen. Außerdem zeigen sie ihre Sozialfähigkeiten bei Interaktionen miteinander, vor allem durch Kooperationen, Verhandlungen sowie Koordinationen. Inzwischen entscheiden sie lokal für sich selbst, woraus das Verhalten des gesamten Systems emergiert. Modulare Produktionssysteme, die als einen Lösungsansatz für die zunehmende Variantenvielfalt wegen individualisierten Kundenanforderungen konzeptioniert wurden, sind eine aussichtvolle Alternative der traditionellen Fließbandfertigung. Die Flexibilität in modularen Produktionssystemen verspricht einen breiten Spielraum für Entscheidungen bezüglich der Produktionssteuerung. Wegen der Entkopplung der Elemente ist die Einsatzmöglichkeit des dezentralen Entscheidungstreffens mittels Agententechnologie sichtbar. In dieser Masterarbeit sollte ein Multiagentensystem für die Produktionssteuerung in modularen Produktionssystemen entwickelt werden. Die konkreten Steuerungskonzepte wurden für einen Prototyp von modularen Produktionssystemen eingesetzt. Die Entscheidungsgüte der drei Steuerungskonzepte wurden anhand simulativer Experimente validiert. Das Modell des Produktionssystems wurde mit der Simulationssoftware Plant Simulation erstellt. Die geeigneten Einsatzszenarien der jeweiligen Steuerungskonzepte wurden in Anlehnung an das Trichtermodell klassifiziert. Schließlich wurde die Flexibilität des Prototyps dadurch bewiesen, dass er an den Engpass und die Veränderungen des Modell-Mix angepasst wurde.



Schliebe, Jan;
Reinforcement Learning zur Steuerung von FTS in der modularen Fertigung. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Zunehmende Ansprüche an die Individualität von Produkten und die damit einhergehende steigende Variantenvielfalt stellen Herausforderungen für heutiger Produktionssysteme dar. Die vorliegende Arbeit stellt auf dieser Grundlage das Produktionskonzept der modularen Fertigung vor. Diese zeichnet sich entscheidend durch ihren werkstattähnlichen Charakter aus, in der die Bearbeitung der Produkte auf redundanten Fertigungsstationen durchgeführt wird. Auf diese Weise entsteht eine hochgradige Flexibilität zur Bewältigung des steigenden heterogenen Modellmix der Produkte. Transportaufgaben werden in der modularen Fertigung von fahrerlosen Transportsystemen (FTS) ausgeführt. Der hohe Automatisierungsgrad dieser FTS ermöglicht hierbei die Einbindung KI-basierter Steuerungslogiken. Die Arbeit stellt dazu einen agentenbasierten Ansatz für die Entwicklung von Steuerungsstrategien mittels Deep Reinforcement Learning vor. Jüngste Erfolge lassen neue Potenziale in diesem Bereich des maschinellen Lernens erkennen, der sich durch die Ermittlung von Lösungsstrategien mittels Trial-and-Error-Suche auszeichnet. Die Hauptaufgabe der Arbeit besteht in der Realisierung eines prototypischen Steuerungskonzepts, das die dynamische Entscheidungsfindung mittels Deep Reinforcement Learning vornimmt und dabei die Entwicklung von Strategien zur Steuerung von FTS im modularen Fertigungssystem ermöglicht. In der Arbeit wird ein Gesamtsystem geschaffen, das unter Verwendung von Python, TensorFlow und Keras die KI-basierte Steuerung in einem in Plant Simulation erstellten Simulationsmodell der modularen Fertigung ermöglicht. Innerhalb der Hauptuntersuchung der Arbeit werden zunächst Steuerungsstrategien auf Basis von Deep Reinforcement Learning ermittelt und anschließend ein Vergleich zu einem Referenzmodell, bestehend aus einem simplen Entscheidungsalgorithmus, hergestellt. Dabei werden beide Steuerungslogiken hinsichtlich systembestimmender Kennwerte der modularen Fertigung untersucht und eine Einordnung der entwickelten Steuerungslogik des Deep Reinforcement Learning vorgenommen.



Damm, Peter Johannes;
Simulationsbasierte Reihenfolgeoptimierung mittels Deep Reinforcement Learning. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Methoden des Deep Reinforcement Learnings (Deep RL) sind im aktuellen Interesse der Forschung. Sie funktionieren nach dem Prinzip des Versuchs und Irrtums, bei dem ein Deep Neural Network durch die Handlungen eines Reinforcement Learning Agenten trainiert wird. Dieser Agent befindet sich in einer Umwelt und will diese durch Aktionen beeinflussen. Hierzu betrachtet er den aktuellen Status der Umwelt, auf dessen Basis eine Aktion ausgewählt wird. Die Umwelt übergeht in Folge der Aktion in einen neuen Status. In diesem erhält der Agent ein Signal über die Güte seiner vorhergehenden Aktionsauswahl, den Reward. Im Rahmen dieser Masterarbeit sollte ein Konzept zur Anwendung eines Deep RL Agenten in der simulationsbasierten Reihenfolgeoptimierung erstellt werden. Dieses Konzept wurde konkret für eine Fließproduktion mit zwei Maschinen entwickelt. In einem Prototyp wurde die Fließproduktion in das Simulationsprogramm PlantSimulation der Siemens AG implementiert. Des Weiteren wurden drei verschiedene Deep RL Algorithmen programmiert, die das Reihenfolgeproblem innerhalb des Simulationsmodells lösen sollten. Mit diesen wurden mehrere Experimente durchgeführt, um diejenigen Parameterkombination innerhalb der Deep RL Agenten zu finden, die zu der besten Lösung des Reihenfolgeproblems führt.



Haberzettl, Markus;
Prognose des Energieverbrauchs von Industriebetrieben mittels Rekurrenter Neuronaler Netze und Case-Based Reasoning. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Der Ausbau des Smart Grids in Deutschland sowie dessen Förderung durch die Politik, ermöglicht eine breite Erhebung von Energieverbrauchsdaten, welche für Prognosen mittels Deep Learning nutzbar sind. Insbesondere die Prognose des Verbrauchs von Großabnehmern wie Industriebetrieben bietet für Energieproduzenten das Potenzial, Produktion und Preise hieran auszurichten. Herausfordernd ist der mit Deep Learning verbundene Rechenaufwand, welcher kurzfristige Prognosen limitiert. In dieser Arbeit werden daher zwei Forschungsfragen untersucht: Ist dieser Rechenaufwand mittels Case-Based Reasoning reduzierbar und ist bei einer solchen Reduktion die gleiche Prognosequalität zu erreichen? Vor diesem Hintergrund sind zur Durchführung der Deep Learning-Prognosen Rekurrente Neuronale Netze in Form von Gated Recurrent Units zu verwenden. In einem ersten Ansatz A1 ist der zukünftige Verlauf von Energiezeitreihen aus Industriebetrieben anhand der Gated Recurrent Units zu prognostizieren. In einem zweiten Ansatz A2 sind dieselben Zeitreihen mittels eines in dieser Arbeit entwickelten Case-Based Reasoning-Systems zu verarbeiten. Hierfür ist eine Wissensbasis in das System implementiert, welche bereits für andere Zeitreihen berechnete Modelle beinhaltet. Ziel des Systems ist es, die Prognosen mittels der Modelle aus der Wissensbasis durchzuführen, statt neue Modelle zu berechnen; dies ist die angestrebte Einsparung des Rechenaufwands. Es ist zu evaluieren, ob A2 die Einsparung unter Beibehaltung der aus A1 bekannten Prognosequalität erreicht. Mithilfe quantitativer Experimente ist festzustellen, dass dies gelingt; A2 spart signifikant Rechenaufwand gegenüber A1 bei Beibehaltung der Prognosequalität ein.



Genath, Jonas;
Scagnostics mittels Deep Learning. - Ilmenau. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die vorliegende Arbeit beschäftigt sich mit dem Problem, dass bei der visuellen Analyse auftritt, wenn im Kontext des Data Farmings eine Analyse auf Basis von Scatterplots oder Scatterplot Matrizen bei einer hohen Anzahl an Variablen aufgrund der Übersichtlichkeit nur schwer durchzuführen ist. Um dieses Problem zu lösen werden in dieser Arbeit zwei Methoden betrachtet und verglichen, um die zu beobachtende Anzahl an Scatterplots auf die Relevanten zu reduzieren. Die Implementierung der Methoden erfolgt durch einen Deep Learning Algorithmus. Zum Einen werden neun Kennzahlen zur Erkennung von relevanten Mustern in Scatterplots zum Anderen die Rastergrafiken der Scatterplots als Eingabe für die künstlichen neuronalen Netzwerke (KNN) verwendet. Zuerst wird ein aus drei Phasen bestehendes Gesamtkonzept entwickelt, welches die Vorgehensweise der Implementierung schrittweise darstellt. Da zum Training der KNN kein geeigneter Datensatz vorhanden ist, wird ein Datensatz auf Basis der Datensynthese generiert. Dafür werden sieben Merkmale in Scatterplots definiert und ein für diese Merkmale repräsentativer Datensatz erzeugt. Von diesem Datensatz ausgehend, werden die neun Kennzahlen berechnet und ein Fully-connected Neural Network wird auf die Mustererkennung in Scatterplots trainiert. Das Training auf Basis der Rastergrafiken erfolgt mittels eines Convolutional Neural Network (CNN). Die Verbesserung der Hyperparameter der beiden KNN erfolgt mithilfe eines entwickelten Bergsteigeralgorithmus. Das Ergebnis dieser Arbeit ist, dass die beiden entwickelten KNN eine Klassifizierungsgenauigkeit von 99% auf die Trainings- und Validierungsdaten erreichen. Wird ein unbekannter Testdatensatz zur Filterung der relevanten Variablenbeziehungen verwendet, erreichen die KNN nur auf die im Vorhinein klar definierten Merkmale eine hohe korrekte Klassifizierungsrate. Mischformen oder unbekannte Muster werden unzuverlässig zugeordnet. Das CNN liefert in diesem Zusammenhang die etwas geeigneteren Ergebnisse. Das Fazit der Anwendung von KNN zur Filterung von Scatterplots ist, dass zur zuverlässigen und sinnvollen Filterung von unbekannten Daten ein umfangreicher mit korrekten Klassen versehender Trainingsdatensatz zugrunde liegen muss. Eine Eignung der Methoden zum Reduzieren von Scatterplots wird jedoch durch die hohe Klassifizierungsgenauigkeit auf die Trainingsdaten für sinnvoll erachtet.



Stand der Technik im Bereich modularer Fertigungssysteme und simulationsbasierter Vergleich mit klassischer Linienfertigung. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Unternehmen unterliegen der ständigen Veränderung ihrer Makro- und Branchenumwelt, deren Prognose sich als zunehmend schwieriger gestaltet. Um diesen erfolgreich zu begegnen ist eine flexible und wirtschaftliche Anpassung des Fertigungsunternehmen an die Nachfrage erforderlich. Am Beispiel der Automobilindustrie zeigen sich diese an unterschiedlichen, angebotenen Antriebsformen und einer Vielzahl von Ausstattungsmerkmalen. Die Automobilproduktion basiert dabei überwiegend auf der Linienfertigung, welche aufgrund der zuvor aufgezeigten Veränderungen zunehmend an ihre Einsatzgrenzen gerät. Neuen Fertigungsprinzipien sollen - zumindest bei gleichbleibender Produktivität - die nötige Flexibilität bieten, wobei eine Möglichkeit der Einsatz von modularen Fertigungssystemen darstellt. Eine Innovation stellt dabei die modulare Produktion dar, die im Rahmen der Arbeit näher untersucht wird. Dabei wird das Fließprinzip aufgehoben und eine Anordnung der Tätigkeiten, vergleichbar mit der Werkstattfertigung, gewählt. Diese Bereiche sind flexibel miteinander verbunden, wobei sich die Verbindungsart, manueller Gütertransport bis algorithmengesteuerte, fahrerlose Transportsysteme, je nach Ausprägung des modularen Fertigungssystems unterscheidet. Es ergibt sich die Fragestellung, nach der Vorteilhaftigkeit der jeweiligen Lösung, modulare Produktion oder Linienfertigung. Dazu wird im ersten Schritt die modulare Produktion von den bereits bekannten Arten modularer Fertigungssysteme abgegrenzt. Aufbauend auf die Untersuchung der Komponenten der modularen Produktion und einem theoretischen Vergleich mit der Linienfertigung, folgt die Realisierung beider Produktionssysteme in der Simulationsumgebung Plant Simulation. Die Arbeit schließt mit der Zusammenfassung der Ergebnisse ab.



Schlott, Annika;
Analyse essenzieller Erfolgsfaktoren für die Einführung von Predictive Maintenance. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Moderne Entwicklungen - wie Industrie 4.0, Internet of Things, Big Data, etc. - bieten zahlreiche Chancen zur Produktivitätssteigerung und Kostensenkung durch Anpassung der Instandhaltungsstrategie. Einer der neuesten Trends auf diesem Gebiet heißt Predictive Maintenance. Er basiert auf vorausschauenden Methoden, die mithilfe statistischer Verfahren und anhand von Maschinendaten eine Prognose über die Lebenserwartung von Komponenten erstellen. Damit kann die verbleibende Zeit bis zur nächsten notwendigen Wartung abgeschätzt und ein proaktives Handeln ermöglicht werden. Im Rahmen einer Masterarbeit sollten die ersten Schritte auf dem Weg zur Einführung dieses Trends bei KNV Logistik Erfurt an einem Regalbediengerät gegangen werden. Hierfür wurden mögliche Erfolgsfaktoren betrachtet und deren Umsetzung initialisiert. Als essenziell galten: Die Identifikation der für Predictive Maintenance relevanten Komponenten, die Speicherung von Daten, Expertenwissen auf dem Gebiet zustandsorientierter Instandhaltung sowie der Entwurf eines Prognosemodells und die Auswahl der effizientesten Mittel mithilfe einer Kostenanalyse. Besonderer Wert wurde auf die Erstellung des Modells gelegt, welche - aufgrund fehlender Daten - theoretisch untersucht werden musste.



Kraus, Maximilian;
Analyse und Vergleich betriebswirtschaftlicher Effizienzbewertungsverfahren im Kontext von Data Farming. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Im Rahmen dieser Masterarbeit wird zunächst eine Übersicht bestehender Effizienzbewertungsverfahren erstellt, von denen anschließend einige genauer miteinander verglichen werden. Ziel ist es, zu eruieren, welche der bekannten parametrischen und nicht-parametrischen Verfahren sich für eine Anwendung in einer realen betriebswirtschaftlichen Umgebung in Bezug auf durch Data Farming generierte sehr große Datenmengen eignen und zudem Mehrwert schöpfende Ergebnisse liefern können. Hierzu wird ein Datensatz bestehend aus 20.480 durchgeführten Simulationsexperimenten genutzt, um daran verschiedene Techniken zur Bewertung von Effizienz zu testen und deren Ergebnisse gegenüberzustellen. Anschließend werden diese hinsichtlich ihrer Vor- und Nachteile sowie ihrer Anwendbarkeit im Big-Data-Kontext untersucht, um allgemeingültige Aussagen über deren Praktikabilität im Einsatz eines realen Unternehmens zu treffen. Die Innovation bezüglich dieser Art der Anwendung ist dabei, die angewandten Verfahren nicht die Effizienz zwischen Unternehmen oder Abteilungen bewerten zu lassen, sondern einen Vergleich verschiedener Produktionsalternativen innerhalb einer einzigen Fertigungslinie zu ziehen, um so die die effizientesten Systemeinstellungen zu identifizieren. Durchgeführt wird hierfür eine Data Envelopment Analysis (DEA), das Operational Competitiveness Rating (OCRA) und die Technique for Order Preference by Similarity to Ideal Solution (TOPSIS), die in diesem Zusammenhang als die bekanntesten Verfahren gelten. Das Fazit der Untersuchung ist, dass sich - bedingt durch eine sinnvolle Vorauswahl der Methoden - theoretisch alle Verfahren für den Zweck dieser Studie eignen. Jedoch kann sich die TOPSIS aufgrund einiger Vorteile gegenüber den anderen Verfahren, wie einer leichteren Implementierung sowie einer höheren Transparenz der Ergebnisse, besonders auszeichnen und wird daher für eine Anwendung innerhalb einer realen betriebswirtschaftlichen Umgebung empfohlen.



Conrad, Florian;
Robustheitsoptimierung mittels Deep Learning. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Generative Adversarial Networks (GAN) sind ein vielversprechender, neuartiger Vertreter generativer Modelle im Kontext des Deep Learning. Ihre Funktion beruht auf einem spieltheoretischen Wettstreit zweier künstlicher neuronaler Netze mit dem Ziel, ein Nash-Gleichgewicht in deren Parameterraum zu finden. Die vorliegende Arbeit untersucht den Einsatz von GAN zur Erzeugung von Konfigurationen und Versuchsplänen für ein Modell der diskret-ereignisorientierten Simulation. Darauf aufbauend wird ein Konzept vorgestellt, welches diese für eine Robustheitsoptimierung nutzt. GAN können Versuchspläne generieren, die hinsichtlich Raumabdeckung reinem Random Sampling überlegen und vergleichbar mit einem einfachen Latin Hypercube Sampling sind. Allerdings ist es nicht möglich, orthogonale oder ausgewogene Pläne zu erzeugen. Ein GAN kann iterativ bessere Lösungen für ein Problem finden, indem es Beispiele generiert, die nach einer Bewertung an das GAN als nachzubildende Datenbasis zurückgegeben werden. Im Konzept wird dieses Prinzip für die Suche nach Konfigurationen im Faktorraum eines Simulationsmodells genutzt, die ein Robustheitsmaß maximieren. Parallel dazu werden durch ein weiteres GAN die Störgrößen des Modells im Sinne einer Minimie-rung der Robustheit angepasst. Somit können Konfigurationen identifiziert werden, die sich unter besonders schwierigen Umweltbedingungen bewähren. Verfahren des Ranking and Selection werden genutzt, um im Verlauf der Optimierung aus mehreren potentiellen Kandidaten den besten zu wählen. An einem Beispielmodell der diskret-ereignisorientierten Simulation kann gezeigt werden, dass dieses Vorgehen robustere Lösungen als die Taguchi-Methode oder die Response Surface Methode findet. Die praktische Umsetzung des Konzepts findet in TensorFlow und Tecnomatix Plant Simulation statt.



Hußke, Christian;
Anwendung von Data Farming auf Simulationsmodelle mit Routenzügen. - Ilmenau. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Tourenplanung gilt als eines der zentralen Problemfelder der Logistik. Dabei soll die bestmögliche Route, unter anderem gemessen an der Weglänge, für den Transport von unterschiedlichen Gütern zwischen einer Quelle und mehreren Senken ermittelt werden. Für die innerbetriebliche Versorgung von Stationen mit Materialien werden oftmals die sogenannten Routenzüge als Transportfahrzeuge eingesetzt. Das Ziel dieser Masterarbeit bestand darin, die Anwendungsmöglichkeit von Data Farming auf Simulationsmodelle mit Routenzügen zu überprüfen. Das Ziel des Data Farmings besteht in der Abbildung gänzlicher Verhaltensmöglichkeiten eines Systems und könnte somit zur Lösung des innerbetrieblichen Tourenplanungsproblems herangezogen werden. Zur Überprüfung dieser These wurden zwei Konzeptvarianten entwickelt, die eine Verbindung zwischen der Routenzugproblematik und der Data-Farming-Methode schaffen. Dabei besitzt jedes Konzept individuelle Vor- und Nachteile, weshalb die Wahl einer Variante durch den individuellen Anwendungszweck des Nutzers bestimmt wird. Eine dieser Varianten wurde anschließend prototypisch in ein Simulationsmodell integriert, welches einen fiktiven Industriebetrieb abbildet. Die Simulationsergebnisse wurden abschließend unter Zuhilfenahme geeigneter Graphiken analysiert.