Diploma and Master Theses

Results: 122
Created on: Thu, 18 Apr 2024 23:04:14 +0200 in 0.0584 sec


Baumeister, Victor;
Best-Practice-Modell zur Erstellung eines Digitalen Zwillings aus einem Simulationsmodell der Fabrikplanung. - Ilmenau. - 119 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das Ziel dieser Masterarbeit ist die Erstellung eines Best-Practice-Modells mit dessen Hilfe ein Digitaler Zwilling für ein Produktionssystem mittels einer Simulationssoftware ermöglicht werden soll. Dabei erfolgt eine Betrachtung von organisatorischen und technischen Aspekten im Best-Practice-Modell. Die organisatorischen Aspekte beschäftigten sich mit der Zusammenarbeit von unterschiedlichen Fachbereichen für die Querschnittsaufgabe der Entwicklung eines Digitalen Zwillings. Der technische Teilaspekt thematisiert zunächst die Herstellung der Interoperabilität zwischen Simulationswerkzeug und Betriebsdatenerfassung. Darauf aufbauend wird ein systematischer Ablauf vorgegeben, wie die Informationen der Datenerfassung im Simulationswerkzeug anschaulich dargestellt werden können. Dies soll eine Echtzeitdarstellung des Produktionssystems und die Möglichkeit zur Simulation auf Basis der Echtzeitdaten erlauben. Bei der Anwendung des Best-Practice-Modells auf ein Praxisbeispiel bei der Robert Bosch Fahrzeugelektrik Eisenach GmbH hat sich gezeigt, dass eine Echtzeitdarstellung eines Produktionssystems ermöglicht werden kann. Dabei ist eine gute Übertragbarkeit auf unterschiedliche Anwendungen des Best-Practice-Modells durch den organisatorischen Leitfaden und die prototypischen Methodenbausteine für Tecnomatix Plant Simu-ation gegeben. Dieser erlaubt es, verschiedene Alternativen zur Ausbringungssteigerung zu quantifizieren und auf dieser Basis eine Handlungsempfehlung zur Steigerung der Produktionseffizienz auszusprechen. Der Entwurf des Best-Practice-Modells erfolgt anhand eines Vorgehensmodells. Dabei wird zunächst der Ist-Zustand analysiert. Darauf aufbauend findet die Erstellung des Best-Practice-Modells für Organisation und Technik statt. Die Implementierung des technischen Best-Practice-Modells in Tecnomatix Plant Simulation wird durch prototypische Methodenbausteine erreicht. In der Installierungsphase erfolgt eine Anwendung unter Nutzung der Methodenbausteine mittels Tecnomatix Plant Simulation an einer Produktionslinie der Robert Bosch Fahrzeugelektrik Eisenach GmbH.



Wörrlein, Benjamin;
Hybride Simulation zur realitätsnahen Abbildung von Energieströmen : Kombination von Materialflusssimulation und maschinellem Lernen. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Moderne Produktionsunternehmen müssen im Kontext der Energiewende sich auf veränderte Marktverhältnisse innerhalb des Energiemarktes einstellen. Diese sind durch eine höhere Volatilität der Verfügbarkeit und daher auch der Kosten von Energien geprägt. Könnte ein Unternehmen vor Abruf seines Energiebedarfs diesen realitätsnah ermitteln und an sein Versorgungsunternehmen weitergeben, so würde dies in fallende Beschaffungskosten resultieren. Um Voraussagen über das dynamische Verhalten einer Organisation zu treffen, werden Methoden der Simulation angewandt. Die Qualität der aus Simulation erzeugten Erkenntnisse nimmt gemeinhin mit einer erhöhten Modellkomplexität und Datenlage zu. Desto komplexer sich eine Simulationsumgebung darstellt, desto höher ist der Aufwand diese mit klassischen Methoden des gewählten Simulationsparadigmas darzustellen. Ziel dieser Arbeit war es die Grenzen der Modellierung einer solchen realitätsnahen Systems anhand des Bedienraums einer Werkzeugmaschine aufzuzeigen, und einen Vorschlag einer alternativen Modellierung über hybride Simulationsansätze zu liefern. Hierfür wurde einmal der Vorschlag einer ereignisdiskreten Modellierung einer Werkzeugmaschine geschaffen, welche eine Simulation des zeitlichen Verlaufs des Energieverbrauchs darstellt und den Aufwand für ebenso eine Erstellung charakterisiert. Die Anforderungen an das diskret ereignisorientierte Modell wurden mit möglichen alternativen Modellen des maschinellen Lernens abgeglichen. Hierbei wurde eine RNN-Encoder-Decoder-Architektur identifiziert, welche bei Eingabe einer Verhaltensbeschreibung des Bedienraums, als Ausgabe eine diskrete Zeitreihe hatte. Diese diskrete Zeitreihe stellt den Energieverbrauch der Werkzeugmaschine für jeden Fertigungsauftrag dar. Das Modell der diskret ereignisorientierten Simulation wurde mit dem Modell der RNN-Encoder-Decoder-Architektur kombiniert, um eine ganzheitliche Beschreibung der Energieverbrauchszeiten simulieren zu können. Bei dem entstandenen Simulationsmodell handelt es sich um ein Modell der diskret ereignisorientierten Weltsicht, welches beim Durchlauf eines Fertigungsauftrags durch den Spanraum (Bedienraum) einer Werkzeugmaschine, ein zuvor gewichtetes rekurrentes, neuronales Netz und den vektorisierten NC-Code des spezifischen Fertigungsauftrags einlädt. Dieses RNN wird bei Simulationslauf aktiviert und hat als Ausgabe die zeitliche Länge des Fertigungsauftrages und eine Zeitreihe des kontinuierlichen Energieverbrauchs des Fertigungsauftrags.



Verbesserung von Experimentdesigns zur streambasierten Analyse von Simulationsmodellen. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die zunehmende Komplexität von Produktions- und Logistiksystemen erweitert stetig die Anforderungen an die Industrie. Zusätzlich steigen die Rechenleistungen kontinuierlich und die Verfügbarkeit von Big Data Infrastrukturen nimmt ebenfalls zu. Aus einer Weiterentwicklung der Computersimulation entstand zunächst das Data Farming und Data Mining. Der nächste Entwicklungsschritt war das sogenannte streambasierte Data Mining. Der Vorteil des streambasierten Data Minings ist die sofortige Verfügbarkeit von Daten. Hier setzt diese Masterarbeit an. Ziel ist es durch Modifizieren der Experimentpläne die frühe Verfügbarkeit von auswertbaren Daten zu verbessern. Es geht hierbei um die genaue Untersuchung des Einflusses von Modifikationsverfahren für Experimentpläne. Betrachtet werden hier die Einflüsse von Replikationen Randomisierung und Blockbildung auf das vollfaktorielle Experimentdesign und das auf Nearly Orthognal Latin Hypercubes (NOLH) basierende Experimentdesign.



Anwendung des Konzepts der symbiotischen Simulation in modernen Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit der Erarbeitung eines Konzepts das es ermöglicht, das erläuterte Grundgerüst der symbiotischen Simulation für die kontinuierliche Überwachung eines modernen Produktionssystems nutzen zu können. Es wird von einer Symbiose gesprochen, wenn Organismen in einer Wechselbeziehung leben, von der alle beteiligten Organismen profitieren. Mit den Daten aus dem Realsystem, kann das simulierte System initialisiert werden und die Genauigkeit der Simulation wird erhöht. Aus den aus der Simulation gewonnenen Daten, können wiederum Entscheidungshilfen für das Realsystem abgeleitet werden. Das in dieser Arbeit entwickelt Konzept basiert auf der Simulation von Störungen in einem Produktionssystem, um so ihren Einfluss auf den Nutzungsgrad bestimmen zu können. Durch die so generierten Informationen werden die Werker an der Linie bei der Priorisierung von Störungen unterstützt. Für die Evaluierung des Konzepts wurde eine Fallstudie durchführt. Als Fallstudie diente eine beispielhafte Fertigungslinie bei der Bosch GmbH in Ansbach. Bei dieser Fertigungslinie handelt es sich um eine vollautomatisierte Linie für die SMD-Bestückung von Leiterplatten. Von dieser Linie wurde zunächst mit Hilfe der Simulationssoftware Plant Simulation ein ereignisbasiertes Simulationsmodell erstellt. Anschließend wurde mittels der Programmiersprache Python ein Schnittstellenmodul entwickelt, das den zyklischen Datenaustausch zwischen Simulation und Realsystem ermöglicht.



Phi, Phuc Trong;
Simulation von Produktionsprozessen unter Einsatz einer hybriden Simulation mit künstlichen neuronalen Netzen. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In Zeiten steigender Komplexität der Produkte und deren Produktionssysteme sowie wachsenden Anforderungen an Qualität, Flexibilität und Kosten, wird das Streben nach mehr Effizienz in den Produktionsbetrieben immer größer. Die Simulation stellt dabei ein probates Werkzeug in der Planung und Optimierung von Produktionssystemen und Logistik-Netzwerken zu Lieferanten, Produktionsstätten und Distributionsstandorten dar. Simulationsmodelle können genaue Abschätzungen über das Verhalten eines Produktionssystems ermöglichen, welche jedoch mit steigendem Komplexitätsgrad des Produktionssystems einen höheren Aufwand in der Modellierung und eine längere Berechnungsdauer nach sich ziehen. Ein Ansatz zur Minimierung des Modellierungsaufwandes beschäftigt sich mit der Kopplung eines externen künstlichen neuronalen Netzes mit einer klassischen Simulation. Der grundlegende Vorteil dieser künstlichen neuronalen Netze besteht darin, im Vergleich zu den existierenden statistischen Ansätzen bessere Ergebnisse für komplexe Probleme liefern zu können. Angesichts dieser Fähigkeit untersucht diese Arbeit die Anwendbarkeit von künstlichen neuronalen Netzen in hybriden Simulationen von Produktionssystemen. Dabei soll das künstliche neuronale Netz die Prognose des Verhaltens von ausgewählten Teilen eines Produktionssystems in einer Simulation übernehmen. Auf Basis dieser Funktion soll hierfür ein Prototyp entwickelt werden, an dem mehrere Simulationsexperimente durchgeführt werden können, um den Einsatz von künstlichen neuronalen Netzen in der hybriden Simulation kritisch bewerten zu können. Die Ergebnisse zeigen, dass die Netze in der Lage sind, eine passable Prognose innerhalb des Rahmens des Trainingssatzes abzugeben. Jedoch versagen sie in der Prognose von unbekannten Werten, wodurch ihr eigentlicher Charakter der Generalisierungsfähigkeit ihnen abhandenkommt. Ebenso ist festzustellen, dass die Qualität der Netzprognosen sehr stark von den Trainingsdaten abhängt. Eine falsche Wahl von Input- und Outputdaten, die das Verhalten der Entitätengruppe im Produktionssystem beschreiben sollen, führt auch zu einer fehlerhaften Prognose dieses Verhaltens.



Rückbrod, Martina;
Eignung kombinierter Simulation für die Abbildung energetischer Aspekte in der Simulation von Produktionssystemen. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Vor dem Hintergrund steigender Energiepreise gewinnt die bewusste und nachhaltige Ressourcenverwendung des Produktionsfaktors Energie an Bedeutung. Für eine bessere Bewertung der Energieeffizienz sind neben der Simulation von Materialflüssen der Produktionssysteme auch Energieflüsse einzubeziehen. Eine rein diskrete Simulation bildet statusbasierte Prozesse sowie über einen Zeitraum konstante Maschinen- und parallele Energiezustände ab. Diese Methode sei aufgrund mangelnder Genauigkeit und Realitätsnähe nicht mehr zeitgemäß und wird von vielen Forschern kritisiert. Diese bevorzugen eine kombinierte Simulation, die den Materialfluss weiterhin diskret, den Energiefluss dagegen kontinuierlich, dynamisch und somit präziser simuliert. Die kombinierte Simulation vereint das diskrete und das kontinuierliche Modell und ermöglicht Wechselwirkungen zwischen beiden Modellen. Ziel der Arbeit ist es, die Hypothese der (besseren) Eignung der kombinierten Simulation für die Abbildung energetischer Aspekte in der Simulation von Produktionssystemen zu eruieren. Dazu wird zunächst der State-of-the-Art der kombinierten Simulation und geeigneter Simulatoren aufgezeigt. Anschließend wird ein Referenzmodell entwickelt und modellorientierte Maßnahmen zur Energieeffizienzsteigerung beschrieben. Dieses Anwendungsbeispiel wird für einen Simulationsvergleich mithilfe von AnyLogic in verschiedenen Szenarien einerseits in rein diskreter Simulation und andererseits in kombinierter Simulation umgesetzt. Die Evaluierung der Ergebnisse zeigt, dass diese Hypothese nicht ausnahmslos bestätigt werden kann, da die diskrete Simulation unter gewissen Bedingungen (z. B. wenn sich nur leistungskonstante Maschinen in der Produktionslinie befinden) bzw. bei bestimmten Simulationszwecken (z. B. wenn der Fokus auf Durchschnittswerten liegt) ebenfalls zielführend und vorteilhaft sein kann. Die bessere Eignung der kombinierten oder der diskreten Simulation hängt von mehreren Faktoren ab und ist daher bei jeder Simulationsabsicht erneut abzuwägen. Es wird jedoch deutlich, dass sich die kombinierte Simulation durch eine präzisere und wahrheitsgetreuere Abbildung von insbesondere der Leistung/des Leistungsverlaufs kennzeichnet und somit in der Praxis oft nutzbringender ist.



Haluch, Oliver;
Techniken der Visualisierung von Big Data zur Verbesserung intuitiv-kognitiver Wissensexploration in Simulationsdaten. - Ilmenau. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Visual Analytics vereinen computergestützte Algorithmen mit den kognitiven Fähigkeiten des Menschen zur intuitiven Entdeckung von Wissen anhand ausdrucksstarker Visualisierungen. Bei Simulationsdaten stört jedoch die Masse an Datenpunkten in der Repräsentation die Einbindung der menschlichen Wahrnehmung durch ein Auftreten von Visual Clutter. Daher sind Techniken gefragt, mit deren Unterstützung die Expressivität einer Visualisierung hochdimensionaler Daten wieder zurückerlangt werden kann. Der Visualisierungsprozess integriert dazu Techniken zur Transformation von Daten, deren Abstraktion in geometrische Strukturen sowie die Übertragung der Information in Ansichten. Die Arbeit systematisiert neben Techniken für die drei Stufen des Visualisierungsprozesses auch die grundlegenden Prinzipien der Enkodierung von Information über visuelle Variablen und erarbeitet die wichtige Rolle der menschlichen Interaktion mit einem Visualisierungssystem, um die visuelle Übersättigung wieder beherrschbar zu machen. Ein Prototyp soll außerdem ausgewählte Visualisierungstechniken zur Exploration von Simulationsdaten vorführen.



Stürzekarn, Dominik;
Expertensysteme zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen am Beispiel von Smart Home. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Expertensysteme sind spezielle interaktive wissensbasierte Systeme, die Expertenwissen im Dialog mit Anwendern abbilden und unter Beachtung von Regeln für Schlussfolgerungen und Problemlösungen verwenden. Expertensysteme können, wie die vorliegende Arbeit zeigt, im Kontext komplexer Investitionsentscheidungen äußerst nützlich sein. Denn sie sind in der Lage, komplexe Investitionsmöglichkeiten auf verschiedenen Märkten zu analysieren und zu normieren, und unter Berücksichtigung der individuellen Situation des Endnutzers Investitionsempfehlungen zu treffen. Unter Rückgriff auf einschlägige Literatur wird ein Konzept zur Erstellung eines Expertensystems zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen entwickelt. Es besteht im Wesentlichen aus den vier Phasen Systemkonzeption, Wissenserhebung, Implementierung und Wartung. Dieses Konzept wird anhand eines Expertensystems für komplexe Investitionsentscheidungen im Bereich Smart Home validiert. Smart Homes sind Wohnstätten, die durch den gezielten Einsatz netzwerktauglicher Informations- und Regelungstechnologien bestimmte Bedürfnisse ihrer Bewohner erfassen können und diese mit internen Regelungsmechanismen sowie durch Kommunikation mit der Außenwelt möglichst eigenständig erfüllen. Das SmartHomeConsultant (SHC) genannte Expertensystem wird mit den Entwicklungswerkzeugen Microsoft Excel und Word (Konzipierung der Wissensbasis) und der Expertensystemshell KnowWE/d3web (formaler Aufbau der Wissensbasis und Inferenzkomponente) selbstständig erstellt. Der SmartHomeConsultant erfüllt alle Anforderungen an ein Expertensystem im Kontext komplexer Investitionsentscheidungen und kann daher als Prototyp eines Expertensystems zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen betrachtet werden.



Hensengerth, Roland;
Data Farming für Produktsequenzen im Kontext der Fertigungssimulation. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Ziel dieser Arbeit ist es, einen Ansatz zu entwickeln, mit welchem die grundsätzlichen Auswirkungen von Produktsequenzen auf Ergebnisgrößen im Kontext der Fertigungssimulation untersucht werden können. Dabei soll eine aus dem Data Farming bekannte generalisierte Sichtweise angenommen werden. Nach einer umfassenden Literaturanalyse werden zunächst Produktsequenzen als Folgen von Produkten, welche verschiedene Produkttypen aufweisen können, definiert. Für die Erstellung dieser wird ein Baumalgorithmus vorgestellt, welcher Sequenzen minimaler Länge zurückgibt, die anschließend zu einer Gesamtsequenz zusammengefügt werden können. Im Rahmen des Experimentdesigns für Produktsequenzen werden Nachteile des Algorithmus ausgeglichen. Als messbare Ergebnisgrößen werden Ereignisse definiert, die während des Simulationslaufs von bestimmten Produktsequenzen ausgelöst werden können. Dabei ist es sinnvoll, je nach Ereignistyp ein Gegenereignis zu definieren, wodurch dann Ereignispaare entstehen. Mittels einer geeigneten Sequenz- und Ereignismessung werden Datenstrukturen erstellt, die mit Sequential Pattern Mining Algorithmen zum Auffinden von häufigen Sequenzen verarbeitet werden können. Mit einem Streudiagramm und einer tabellarischen Darstellung werden zwei Visualisierungsmethoden vorgestellt, welche sich zur anschließenden Auswertung eignen. Außerdem wird die Validierung der Ergebnisse mittels eines Simulationsmodells eingegangen. Als geeignete Datenbankmanagementsysteme zur Speicherung erweisen sich NoSQL Systeme. Zur Überprüfung des Konzeptes wird dieses im Anschluss prototypisch implementiert. Anhand von zwei akademischen Anwendungsbeispielen wird aufgezeigt, dass mit Hilfe des Ansatzes interessante Ursache-Wirkungs-Zusammenhänge zwischen Produktsequenzen und Ergebnisgrößen ermittelt werden können.



Cely Hernandez, Daniela Rocio;
Metamodellierung von Simulationsmodellen. - Ilmenau. - 82 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Technische Systeme zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Nicht selten werden statt mathematischer bzw. analytischer Methoden Simulationsmodelle verwendet, um das betrachtete System über Simulationsexperimente zu studieren und zu evaluieren. Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren. Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamodellierung und mit der Charakterisierung gängiger Methoden, wie das Kriging-Verfahren, die Spline-Regression, die Support-Vector-Machine, die polynomiale Regression, die radiale Basisfunktion, das künstliche neuronale Netz und der Entscheidungsbaum. Hierfür wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen. Die letzten vier Methoden wurden mit Hilfe einer prototypischen Umsetzung anhand von Kriterien, wie die Genauigkeit, Robustheit und Effizienz, miteinander verglichen. Hierbei stellte sich heraus, dass die polynomiale Regression den geringsten Fehler (RAAE) bei der Abbildung linearer Zusammenhänge aufweist. Für die Abbildung einer Nichtlinearität hat hingegen das künstliche neuronale Netz den niedrigsten Fehler erzeugt. Außerdem hat sich die Methode des Entscheidungsbaumes als robust erwiesen, weil sie mit der geringsten Standardabweichung verschiedene Simulationsmodelle abgebildet hat. Die Ergebnisse dieser Arbeit bestätigen die Nützlichkeit einer Metamodellierung im Sinne der Zeitlaufreduzierung. Während der Aufbau eines Metamodells und die Prognose von Simulationsergebnissen Millisekunden dauert, ist die Laufzeit von der gleichen Zahl an Simulationsexperimenten mindestens tausend mal größer. Bei dem künstlichen neuronalen Netz und der radialen Basisfunktion hat der Aufbau des Metamodells und die Prognose von Simulationsergebnissen vergleichsweise mehr Zeit im Anspruch genommen als die polynomiale Regression und der Entscheidungsbaum.