Diploma and Master Theses

Results: 122
Created on: Thu, 28 Mar 2024 23:03:14 +0100 in 0.1001 sec


Breitsprecher, Oskar;
Vergleich verschiedener Zeitfortschrittsverfahren in der verteilten Simulation. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die vorliegende Masterarbeit stellt einen Vergleich grundlegender Synchronisations-verfahren der verteilten Simulation vor. Dazu werden zunächst konservative, optimistische und hybride Verfahren auf algorithmischer Ebene vorgestellt und miteinander verglichen. Im Anschluss werden zwei Referenzmodelle mit der Simulationssprache SLX entwickelt. Dabei stellt ein Referenzmodell eine Umsetzung des Phold Modells nach Fujimoto dar. Mittels einer SLX-HLA Schnittstelle nach Straßburger und einer HLA RTI werden die Implementierungen der Referenzmodelle anschließend verteilt ausgeführt. Hierzu werden vorhandene Implementierungen eines konservativen und eines optimistischen Synchronisationsverfahrens in einem Praxistest gegenübergestellt. Um die Vor- und Nachteile der jeweiligen Synchronisationsmethoden zu identifizieren, werden modellspezifische und modell-unabhängige Parameter wie der Lookaheadwert in unterschiedlichsten Konstellationen getestet und dass Verhalten der Synchronisations-verfahren auf Änderungen der Ausprägungen dieser Parameter analysiert.



Phan, Hoang Ha;
Adaption von Simulationsmodellen - Entwicklung eines Basisframeworks und Test anhand eines konkreten Adaptionsverfahrens. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Zur Erhaltung der Wettbewerbsfähigkeit müssen produzierende Unternehmen heute fähig sein, die aufgrund von gestiegenen Kundenanforderungen zunehmende Variantenvielfalt und die sich daraus ergebende Turbulenz und Komplexität in modernen Produktionssystemen beherrschbar zu machen. Hierzu empfiehlt es sich, Simulationsmodelle im Rahmen der Produktionsplanung und -steuerung zur kurz- und mittelfristigen Entscheidungsunterstützung einzusetzen. Mit der computergestützten Simulation lassen sich Produktionssysteme abbilden, sodass zukünftige Ereignisse mittels Was-wäre-wenn-Analysen prognostiziert und darauf basierend adäquate Planungs- und Steuerungsstrategien entwickelt werden können. Da die realen Fertigungsprozesse und -parameter sich über die Zeit verändern, müssen Simulationsmodelle ständig aktualisiert bzw. adaptiert werden, damit eine realitätsgetreue Abbildung sichergestellt werden kann. Hierbei entsteht ein ständiger Betreuungs- und Pflegeaufwand, der durch die vollständige oder zumindest teilweise Automatisierung des Modelladaptionsprozesses reduziert werden kann. In modernen Produktionssystemen werden sämtliche prozessbezogenen Daten digital aufgezeichnet, wie etwa im Rahmen der Betriebsdatenerfassung (BDE), die zur (teil-)automatischen Modelladaption genutzt werden können. Vor diesem Hintergrund wurde in dieser Arbeit ein Basisframework konzipiert und dessen Grundkomponenten prototypisch entwickelt, sodass damit das Testen verschiedener Adaptionsverfahren ermöglicht wird. Zum Test der Verfahren werden Daten in einem Simulationsmodell (Emulation der Produktion) erzeugt, diese Daten in einem als C#-WPF-Anwendung implementiertes Adaptionswerkzeug ausgewertet und auf Basis der Ergebnisse die vorab definierten Parameter eines weiteren Simulationsmodells mit Hilfe einfacher Adaptionsverfahren adaptiert.



Heimann, Maximilian;
Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Mit dem Thema Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen soll ein systematischer Vergleich der Text Mining Verfahren vorgenommen werden, um so eine Aussage über deren Eignung für die Analyse von Trends in wissenschaftlichen Publikationen zu treffen. Dazu wird im ersten Schritt ein allgemeiner Überblick über die Grundlagen des Text Mining gegeben. Dieser Überblick umfasst wichtige Begriffe, Eigenschaften des Text Mining, das Vorgehensmodell sowie eine Erläuterung der verschiedenen Text Mining Verfahren. Im zweiten Schritt wird ein Kriterienkatalog aufgestellt, anhand dessen die einzelnen Verfahren bewertet werden sollen. Zusätzlich erfolgt eine Gewichtung der verschiedenen Kriterien. Bevor die einzelnen Verfahren getestet werden, wird der Untersuchungsgegenstand näher beschrieben. Die einzelnen Tests der verschiedenen Verfahren werden mit Hilfe unterschiedlicher Text Mining Werkzeuge durchgeführt und auf Basis der Beobachtungen innerhalb des Tests wird eine Bewertung der einzelnen Kriterien vorgenommen. Für jedes Verfahren wird eine Gesamtbewertung aus den einzelnen Kriterien ermittelt, um anhand dieser ein Ranking der Verfahren nach deren Eignung zur Ermittlung von Trends aufzustellen. Abschließend wird ein Resümee für die Thematik gezogen. Hierbei wird ein Ausblick auf die zukünftige Entwicklung des Text Mining gegeben sowie eine abschließende Aussage über die Eignung des Text Mining für die Anwendung auf wissenschaftliche Publikationen aus den Ergebnissen des praktischen Teils der Arbeit getroffen.



Gelbrich, Patrick;
Dynamisches Erzeugen von Entscheidungsbäumen für die Simulationsdatenanalyse. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Rahmen der Produktionssimulation spielt unter dem Aspekt der Gewinnmaximierung die effiziente Ausnutzung der zur Verfügung stehenden Ressourcen eine wichtige Rolle. Dabei liegt die Schwierigkeit darin, das dynamische Verhalten von komplexen Produktionssystemen korrekt analysieren und bewerten zu können. Mit dem Ziel der Optimierung von Fertigungsanlagen wird häufig die bewährte und anerkannte Methode der diskretereignisgesteuerten Simulation eingesetzt. Ziel dieser Arbeit ist die Entwicklung eines Konzeptes zur Nutzung von Entscheidungsbaumverfahren zur Simulationsdatenanalyse. Bei der Ausführung der Simulationsexperimente ist darauf zu achten, dass ein möglichst großes Spektrum an Eingangsparameterkombinationen getestet werden kann. Zur Aufdeckung der Beziehungen der Eingangsparameter auf verschiedene Ergebnisparameter bei der Simulation des Produktionssystems kommen dynamische Entscheidungsbaumverfahren zum Einsatz, welche noch nicht in Bezug auf die Analyse von Simulationsdaten eingesetzt wurden. Diese Verfahren haben sich bereits in vielen Aspekten zur Klassifikation von Datenströmen im Bereich des Stream Minings bewährt. Insbesondere der inkrementelle Hoeffding-Baum, beziehungsweise der Very Fast Decision Tree werden auf die Eignung von streamingbasierter Eingabe von Simulationsdatensätzen untersucht. Durch die Struktur der erstellten Entscheidungsbaummodelle können hierbei die Beziehungen der Eingangsparameter zu den Ergebnisdaten der Simulation untersucht werden.



Bartz, Clemens;
Untersuchung logistischer Kennzahlen zur Bewertung operativer Planungsentscheidungen unter Anwendung einer MRP-Cockpit-Lösung. - 69 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Bei der Bewertung kurzfristiger Planungsentscheidungen werden Disponenten nicht hinreichend unterstützt. Bisherige Systeme visualisieren mögliche Unter- und Überdeckungen und können Alternativvorschläge unterbreiten. Eine Bewertung findet nur unter einfachen Gesichtspunkten statt. In der Arbeit wird ein auf einer Literaturanalyse sowie Expertenwissen basiertes Kennzahlensystem entwickelt, welches zur Entscheidungsunterstützung angewendet werden kann. Die Umsetzbarkeit wird prototypisch an einem SAP S4 HANA getestet.



Eisenhauer, Jana;
Erweiterung der statischen Wertstromanalyse durch Simulationsbausteine an einem Beispiel aus der Automobilzulieferindustrie. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In den vergangenen Jahren hat sich die Wertstromanalyse zunehmend als Methodik zur gesamtheitlichen Abstimmung und Verbesserung der Prozesskette durchgesetzt. Durch die Visualisierung von Informations- und Materialflüssen werden Verschwendung und Verbesserungspotentiale aufgezeigt. Ausgehend von diesen Ansatzpunkten können dann zielgerichtet Maßnahmen zur Verbesserung abgeleitet werden. Häufigster Kritikpunkt der Methodik ist jedoch die Vernachlässigung der Dimension Zeit. Die Betrachtungen basieren auf Durchschnittswerten, wodurch Extremwerte und stochastische Verteilungen unberücksichtigt bleiben. Aus diesem Grund wurden in letzter Zeit vermehrt Beiträge publiziert, die eine Kombination der Wertstromanalyse mit Simulationskomponenten thematisieren. Die Ausarbeitung zeigt die verschiedenen Methoden einer solchen dynamischen Wertstromanalyse auf und stellt sie vergleichend gegenüber. Zudem wird ein Integrationsansatz der dynamischen Wertstromanalyse in die Abläufe der statischen Wertstromanalyse vorgestellt. Anhand dieser erarbeiteten Vorgehensweise werden zwei ausgewählte Methoden auf einen realen Wertstrom der Automobilzulieferindustrie angewendet. Die beiden untersuchten Methoden werden anhand ausgewählter Kriterien gegenübergestellt und bewertet. Abschließend werden Einflussfaktoren auf den Nutzen sowie den Aufwand der dynamischen Wertstromanalyse im betrieblichen Umfeld vorgestellt und erläutert, sowie Herausforderungen hinsichtlich der Akzeptanz der Methodik aufgezeigt.



Ponischil, Sonja;
Visual Analytics in der Simulationsdatenanalyse. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Mit zunehmendem technischem Fortschritt im Bereich von Speicher- und Rechenkapazitäten werden die Informations- und Datenmengen steigen. Die vergleichsweise geringer wachsende Fähigkeit, diese Datenvolumen zu analysieren, wird in der Zukunft zu einem Problem führen. Um dieser Herausforderung zu entgegnen, entwickelte sich das interdisziplinäre Forschungsgebiet der Visual Analytics, das den Prozess des Datenmanagements bis hin zur Visualisierung und Entscheidungsfindung durch die Integration des Menschen umfasst. Folglich stellt Visual Analytics eine Kombination aus automatischer und visueller Analyse, bestehend aus Methoden der automatischen Datenanalyse sowie Methoden der visuellen Darstellung und Interaktion des Menschen, dar. Diese Arbeit zeigt anhand eines qualitativen Literaturreviews den aktuellen Stand der Forschung im Bereich der Visual Analytics Methoden auf und gibt einen Überblick über die verschiedenen Begrifflichkeiten und die Methoden dieses Forschungsbereichs. Zudem werden die recherchierten Visual Analytics Methoden dahin gehend überprüft, ob und in welcher Form diese für die Analyse von Simulationsdaten geeignet sind. Diese Arbeit beschränkt sich auf Ergebnisdaten diskret-ereignisgesteuerter Simulation von Produktionssystemen. Abschließend werden die Erkenntnisse aus der Beurteilung der Visual Analytics Methoden auf ein Testszenario übertragen, um die Ergebnisse praktisch zu veranschaulichen.



Albrecht, Jennifer;
Vergleich der Konzepte von Industrie 4.0 und der Digitalen Fabrik. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Das Ziel der Arbeit war zum einen festzustellen, ob die beiden Konzepte Industrie 4.0 und Digitale Fabrik verglichen werden können, das wurde anhand der Definitionen, sowie anhand einer möglichen Eingrenzung der Konzepte versucht, die Ergebnisse dafür wurden den zwei großen Grundlagenkapitel entnommen. Das Ergebnis ist, dass ein direkter Vergleich nicht möglich ist. Da beide Konzepte nicht eindeutig voneinander abgegrenzt werden können und die Ebenen des Einsatzes der Konzepte nicht zusammenpassen. Da die digitale Fabrik eine reine virtuelle Betrachtung der Fabrik beinhaltet und die Smart Factory als Teil der Industrie 4.0, welcher vom Einsatzgebiet der Digitalen Fabrik am nächsten kommt, sich um die reale Produktion bemüht. Auch wenn das Bestreben der Digitalen Fabrik, sich der realen Produktion anzugleichen, zu erkennen ist und ebenso in der Zielstellung der Definition verankert ist, reicht das noch nicht aus für einen möglichen Vergleich. Deshalb wurde das Augenmerk auf die Fragen nach dem Nutzen der Digitalen Fabrik gelegt, sowie der notwendigen Weiterentwicklung der Digitalen Fabrik um Nutzen zu generieren. Dabei wurde festgestellt, dass die Digitale Fabrik auf einem sehr guten Weg ist, in die Industrie 4.0 integriert zu werden, da sie zum einen schon in der Praxis etabliert ist und ständig weiterentwickelt wird. Dadurch können entsprechende Kostenvorteile generiert werden, wie z. B. durch die Reduktion von Entwicklungs-, Einführungs- und Schulungskosten. Weiterentwicklungspotentiale wurden folgende Herausgearbeitet: Die digitale Fabrik sollte sich innerhalb der Industrie 4.0 immer näher an die reale Welt annähern. Indem z. B. die Materialflusssimulationen um eine ganzheitliche Sicht aller Ressourcen erweitert wird. Sinnvoll wäre auch, dass die Produktionsanlagen ihre eigenen Konstruktionsdaten, sowie virtuelle Modelle speichern, welche dann über Schnittstellen einfach in digitale Fabrikmodelle übertragen werden können um vollständiges Modell, mit Ist-Daten zu erhalten. Das wäre eine sinnvolle Kombination von Eingebetteten Systemen und der Digitalen Fabrik, wofür aber z. B. klar definierte Schnittstellen zwischen der realen Fabrik und den digitalen Modellen geschaffen werden müssen, sowie in ein Framework eingebettet und eine Industrie 4.0-tauglichen Fertigungsumgebung geschaffen werden. Aus der Planung und dem Einsatz kooperierender und teils autonomer Systeme ergeben sich ganz neue Herausforderungen für die digitale Fabrik, weil die Datenaufbereitung, -analyse und visualisierung überdacht werden müssen. So war sie bis jetzt für die Interaktion mit Planern erdacht und soll zukünftig auch M2M-Komunikation können. Weitere Entwicklungsfelder ergeben sich in Bezug auf die Interoperabilität und Echtzeitfähigkeit der Methoden und Werkzeuge durch die autonome Produktionssteuerung. Nicht alle Weiterentwicklungen sind notwendig für eine Integration aber über lange Sicht wünschenswert, damit die Digitale Fabrik, den Platz in der Industrie 4.0 bekommt, der ihren Möglichkeiten entspricht.



Walther, Robert;
Automatisierte Generierung von interaktiven 3D Animationen von Simulationsläufen im Webbrowser. - 100 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Simulation hat sich als effektives Werkzeug für die Handhabung und Untersuchung komplexer Systeme bewährt. Besonders im betrieblichen Umfeld kann Simulation dazu eingesetzt werden um zum Beispiel die Kosten zu reduzieren, die Prozessqualität zu verbessern und Produktentwicklungszyklen zu verkürzen. Die Ergebnisse von Simulationsläufen sind oft für verschiedenste Zielgruppen von Bedeutung. Diese reichen von der Schulung des Produktionsmitarbeiters bis hin zur Unterstützung der Entscheidungsfindung der Geschäftsleitung. Eine Herausforderung stellt dabei die kostengünstige, plattformunabhängige, schnelle und einfache Visualisierung und Verfügbarkeit der Daten von Simulationsläufen für die verschiedene Interessengruppen dar. Das World Wide Web und die zahlreichen Entwicklungen der letzten Jahre im Bereich der 3D Computergrafik bieten Möglichkeiten diese Herausforderungen zu lösen. An dieser Stelle knüpft die vorliegende Arbeit an. Nach Erläuterung der Grundlagen und Techniken aus dem Bereich der Visualisierung und 3D Computergrafik wird der Standard Core Manufacturing Simulation Data (CMSD) vorgestellt. Dieser Standard wird unter anderem für die automatische datengetriebene Modellgenerierung genutzt. Einen Ansatz hierfür stellt die Arbeit "Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen" von Dr. Sören Bergmann dar. Aufbauend auf seinen Interpretationen zur Nutzung des Standards wird in dieser Arbeit ein Entwurf für die Implementierung eines Frameworks zur automatisierten Generierung interaktiver 3D-Animationen erarbeitet. Dieser Entwurf wird im Anschluss durch die Implementierung eines ersten Prototyps validiert.



Sommer, Christian;
Erzeugen von Entscheidungsbäumen aus Daten im Simulationskontext. - 80 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2015

Das Treffen von strategischen und taktischen Entscheidungen bei der Planung und Steuerung von Produktionssystemen wirft eine Reihe von Problemen auf. Um die Qualität dieser Entscheidungen zu verbessern, kann das System in einem Simulationsmodell abgebildet werden und damit Handlungsalternativen ohne Hinzunahme des realen Produktionsgeschehens erforscht werden. Auf Grund der großen Anzahl von beeinflussbaren und nicht beeinflussbaren Faktoren bei der Durchführung der Experimente ist das Erkennen des geeigneten Weges zur Optimierung des Modells und damit des abgebildeten System nicht einfach. Um dieses Problem zu lösen, bieten sich verschiedene Methoden des Data Mining an. Dieses Forschungsgebiet beschäftigt sich mit der Entdeckung von neuem Wissen aus einer großen Datenmenge, wie sie bei der Durchführung von Simulationsexperimenten entsteht. Entscheidungsbäume stellen ein Teilgebiet des Data Mining dar. Ziel der Arbeit ist es, ein Konzept zu entwickeln, um Daten aus Simulationsmodellen mit Hilfe von diesen Bäumen darzustellen und zu analysieren sowie das Potenzial dieses Konzeptes einzuschätzen. Zur Generierung der zu untersuchenden Daten werden in der Simulationssoftware Plant Simulation beispielhaft Modelle von Produktionssystemen erstellt. Inkrementelle und nichtinkrementelle Algorithmen aus den Data-Mining-Bibliotheken Weka und Moa werden auf die generierten Daten angewendet, um Entscheidungsbäume zu erstellen. Anschließend wird bewertet, inwieweit die entstandenen Bäume die Qualität der Handlungsempfehlungen bezüglich des jeweiligen Systems verbessern.