Diplom- und Masterarbeiten

Anzahl der Treffer: 122
Erstellt: Thu, 28 Mar 2024 23:03:14 +0100 in 0.9597 sec


Tajik, Saman;
Gegenüberstellung von unterschiedlichen Steuerungsmethoden für modulare Montagesysteme. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Mit der erhöhenden Komplexität der Steuerung von Produktionssystemen in der Folge von der Individualisierung der Produkte und variantenreichen Produktion ist ein neuer Ansatz nämlich modulares Produktionssystem in Betrieb genommen. Das Produktionssystem hat viele Unterschiede mit den bereits bekannten Produktionssystemen und deshalb lässt sich nicht mit klassischen Methoden steuern. Auf der anderen Seite wird bei diesem neuen Ansatz von fahrerlosen Transportsystemen genutzt, welche der Prozess der Entscheidungsfindung automatisiert, ohne die menschlichen Fachkräfte einzusetzen. Aus diesem Grund gibt es ein Forschungsfeld zur Gegenüberstellung von klassischen angepassten und von KI-basierten Steuerungsmethoden. Diese Arbeit beschäftigt sich mit unterschiedlichen klassischen angepassten und KI-basierten Methoden zur Steuerung eines modularen Produktionssystems, unter denen die Prioritätsregeln, adaptierte Methode von Giffler und Thompson, Reinforcement Learning Methode sowie der genetische Algorithmus zu erwähnen sind. Darüber hinaus wird zuletzt eine von genannten Methoden in einer simulierten modularen Fabrik im Vergleich zu einer zufälligen und auch Heuristik-basierten Entscheidungsfindung untersucht.



Elmi, Maedeh;
State of the Art: Methodik zur Materialversorgung in den modularen Produktionssystemen. - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2024

Es gibt heutzutage verschiedene Produktionsmethoden, die je nach Produkttyp, Situation und Unternehmenslage eingesetzt werden. Ein modernes, flexibles Produktionssystem sind modulare Montagesysteme, die ohne festen Takt und Förderband arbeiten. Diese Systeme bestehen aus entkoppelbaren Stationen, die unterschiedliche Aufgaben übernehmen können. Diese entkoppelten Stationen ermöglichen die Herstellung individualisierter Produkte und einer Vielzahl von Produktvarianten. Aufgrund ihrer Flexibilität und großen Wandlungsfähigkeit sind diese Systeme besonders praktisch für den heutigen Markt, insbesondere in der Automobilindustrie. Da sich Kundenwünsche schnell ändern und Unternehmen sich anpassen müssen, um ihre Wettbewerbsfähigkeit zu erhalten, sind diese Systeme äußerst nützlich. Die interne Materialversorgung sowie Materialbereitstellung (also gesamtes internes Materialflusssystem) spielt hierbei eine entscheidende Rolle. Bei Materialmangel während der Produktion können Probleme wie Produktionsabbrüche und längere Durchlaufzeiten auftreten. Es existieren verschiedene Methoden für die Materialversorgung in Produktionssystemen, darunter Kanban, Just-in-Time, Just-in-Sequence sowie Touren- und Routenplanung. Diese Methoden zielen darauf ab, das Zusammenspiel der Elemente im Materialflusssystem bestmöglich zu koordinieren. In dieser Arbeit werden zunächst die vorhandenen Methoden detailliert beschrieben, und es wird versucht, die Kanban-Methode als eine nach wie vor häufig verwendete Methode unter Berücksichtigung von Anpassungsmöglichkeiten an modulare Montagesysteme anzupassen. Des Weiteren wird ein modulares Montagesystem mit seinem Kanban-System mithilfe von Plant Simulation simuliert und visualisiert.



Hanisch, Marco;
Dynamisches Experimentdesign für teilausgeführte Experimentpläne im Kontext von Data Farming. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

In dieser Arbeit wird überprüft ob und in welcher Weise Experimentdesigns bereits während der Durchführung dynamisch angepasst werden können. Der Wunsch dies ausführen zu können entsteht aufgrund des großen Aufwandes, besonders hinsichtlich der genutzten Ressourcen. Dabei werden zu Beginn verschiedene Experimentdesigns vorgestellt. Zudem werden die notwendigen Grundlagen zur Beurteilung der Qualität eines Experimentdesigns dargestellt, wie Orthogonalität, Space Filling, Randomisierung oder Blockbildung. Die detailreich vorgestellten Experimentdesigns entspringen dabei sowohl der Gruppe an faktoriellen Experimentdesigns als auch der Gruppe an modernen Experimentdesigns. Zudem werden verschiedene Methoden gezeigt, wodurch versucht wird die Experimentdesigns sequenziell beziehungsweise dynamisch durchzuführen. Danach wird auf das Themengebiet des Data Farming eingegangen. Diese Technik von Big Data wird genutzt um mittels Experimenten und Simulationen Daten zu generieren und auszuwerten. Für die strukturierte Arbeitsweise beim Data Farming werden dabei zum Beispiel die zuvor vorgestellten Experimentdesigns genutzt. Im weiteren Kapitel dieser Arbeit wird untersucht inwiefern einige der meistgenutzten Experimentdesigns dynamisch, also noch bei der Ausführung anpassbar sind. Dabei wird dies bei dem 2k-Faktoriellen Experimentdesign, einem vollfaktoriellen Experimentdesign und bei dem Latin Hypercube Experimentdesign untersucht. Zur Demonstration dieser Änderungen wird ein Prototyp vorgestellt, durch welchen Experimentpläne dynamisch angepasst werden können. Dieser Prototyp wird im letzten Kapitel vorgestellt und mittels eines kleinen Experiment demonstriert.



Häfner, Luise;
Potenziale zur energetischen Optimierung von Produktionssystemen. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Vor dem Hintergrund des weltweit zwingenden Klimaschutzes und der damit verbundenen Reduzierung des gesamtgesellschaftlichen Energieverbrauchs beschäftigt sich die vorliegende Masterarbeit mit den Potenzialen der energetischen Optimierung von Produktionssystemen. Dem Thema wird sich über zwei Forschungsfragen genähert, sodass sich die Arbeit in zwei Teile teilt. Im theoretischen Teil wird ein Überblick zur energetischen Optimierung und den damit verbundenen Optimierungszielen, Parametern und Nebenbedingungen gegeben. Der dafür erarbeitete morphologische Kasten soll Stakeholdern einen schnellen Einstieg in das Thema ermöglichen. Zusätzlich werden bisher in Veröffentlichungen verwendete Optimierungsmethoden mit Schwerpunkt auf der simulationsbasierten Optimierung (SBO) vorgestellt. Im praktischen Teil der Arbeit wird als Fallbeispiel die Produktion von Nutzen für die Elektronik auf einem Trocknungsofen ausgewählt. Dafür wird ein hybrides Simulationsmodell in der gewählten Simulationsanwendung AnyLogic erstellt, wobei der Materialfluss mit diskret-ereignisorientierter Simulation (DES), das Ofenverhalten mit agentenbasierter Simulation (ABS) und der Energieverbrauch mit System Dynamics (SD) modelliert werden. Anschließend wird mit diesem Simulationsmodell eine SBO durchgeführt, um zu erforschen, welchen Einfluss die Trocknungsofen-Losgröße auf den Energieverbrauch des Produktionssystems hat. Die Ergebnisse der Experimente werden zusammengefasst, Empfehlungen für die Anwendung der SBO zur energetischen Optimierung von Produktionssystemen gegeben sowie mögliche Erweiterungen des Simulationsmodells und der damit verbundenen SBO aufgezeigt. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse, einer kritischen Würdigung und einem Ausblick auf weitere Forschungsbereiche und -themen.



Entwicklung einer simulationsbasierten Methodik zur Validierung und Optimierung von APS-Planungsergebnissen. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Produktionssysteme sind komplexe sozioökonomische Systeme, die von stochastischen Einflüssen beeinflusst werden. Das macht die Planung von Aktivitäten und Ereignissen zu einer anspruchsvollen Aufgabe. Advanced Planning Systeme sollen die Planungseinheiten des Produktionssystems unterstützen, können jedoch in der Praxis nicht immer optimal arbeiten, um die theoretischen Lösungen ihrer Methoden zu reproduzieren. Diese Systeme verwenden Modelle, die von Experten entworfen werden müssen. Die Herausforderung besteht darin, APS-Modelle zu entwerfen, die im realen System optimale und zulässige Lösungen bieten. Im Rahmen dieser Arbeit wurde ein Konzept zur simulationsbasierten Validierung und Optimierung der Planungsergebnisse von APS-Systemen entwickelt. Bevor die Pläne des APS-Systems im realen System umgesetzt werden, werden sie mithilfe einer Materialflusssimulation validiert und gegebenenfalls angepasst, bis die Planungsqualität innerhalb eines festgelegten Toleranzbereichs liegt. Dazu werden Qualitätskennzahlen eingeführt und die optimale Planung wird durch Parametervariationen und Anpassungen des Datenmodells des APS-Systems approximiert. Im Rahmen dieser Arbeit wurden weitere Potenziale für eine Erweiterung der Methodik identifiziert, wie zum Beispiel die kollaborative, standortübergreifende Simulation von Wertschöpfungsnetzwerken, in denen die beteiligten Produktionssysteme sich gegenseitig beeinflussen.



Gräßner, Rabea Wiebke;
Sequential Pattern Mining für Eventlogs im Kontext von Data Farming. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Grundlage des Sequential Pattern Mining bilden Sequenzen, die zur Mustersuche miteinander verglichen werden können. Das Sequential Pattern Mining hat den Ursprung in der Warenkorbanalyse. Ein Kunde kauft zu einem bestimmten Zeitpunkt in einer sogenannten Transaktion mindestens ein Produkt. Dieser Transaktion lässt sich eindeutig ein Kunde, eine Transaktionsnummer sowie der Inhalt der Transaktion zuordnen. Jeder Kunde bildet eine eigene Sequenz. Eventlogs beinhalten eindeutige Ereignis-Vorgangs-Paare. Das bedeutet, dass jedem eindeutig gekennzeichneten Vorgang mindestens ein Ereignis zugeordnet wird. Auf dieser Basis arbeitet der XES-Standard zur Speicherung der Eventlogs. Der Kunde bildet den Vorgang, die Transaktion bildet das Ereignis. Dieser Zuordnung können dann noch Attribute mitgegeben werden, die sich zusätzlich auswerten lassen. Im Produktionskontext gibt es allerdings keine eindeutige Zuordnung von Kunden, Transaktionen und Produkten. Es finden nicht nur lokale Ereignisse statt, die speziell einen Kunden oder eine Transaktion betreffen, sondern es können auch globale Ereignisse auftreten. Diese globalen Ereignisse haben Auswirkungen auf sämtliche Vorgänge im System. Durch die übergreifend wirkenden Ereignisse gibt es nicht ausschließlich eindeutige Ereignis-Vorgangs-Paare. Der XES-Standard der Eventlogs lässt sich in diesem Kontext nicht anwenden. Die Bildung von Sequenzen basierend auf einzelnen Vorgängen ist demnach nicht zielführend. Sequenzen müssen anderweitig gebildet werden. Dafür werden in der Arbeit verschiedene Ansätze diskutiert. In diesem Kontext wird auch analysiert, ob alle Ereignisse oder nur bestimmte, im Vorfeld festgelegte, diskrete Ereignisse aufgezeichnet werden sollen und welche Zusatzinformationen trotz der Verwendung diskreter Ereignisse relevant sein könnten. Bei der Ereignisaufzeichnung ist darauf zu achten, den zeitlichen Verlauf diverser Größen nachvollziehbar zu gestalten. Ziel der Arbeit ist es, die Aufzeichnung der Ereignisse nicht nur an einem einzelnen Simulationslauf durchzuführen, sondern sie auch in den Kontext des Data Farming zu setzen. Dabei muss sichergestellt werden, dass Muster betrachtet werden, die auch in den einzelnen Simulationsläufen des Data-Farming-Experiments häufig sind. Aus den gefundenen Mustern sollen dann Regeln, die sogenannten Assoziationsregeln, abgeleitet werden. Die aufgestellten Assoziationsregeln betreffen einerseits die Zusammenhänge im System, andererseits die Beziehung zwischen Eingabeparameterkonfiguration und Musterentdeckung. Nachdem das Konzept aufgestellt wurde, wird dieses an einem Anwendungsszenario validiert. Die Arbeit endet mit einer nichtabschließenden Aufzählung von relevanten Ereignissen, die zum Ableiten von Zusammenhängen herangezogen werden können. Die vorliegende Arbeit verknüpft Sequential Pattern Mining und die Assoziationsanalyse als Data-Mining-Methoden.



Kaiser, Max;
Einsatz künstlicher Intelligenz zur Standortplanung und Transportnetzwerkoptimierung. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel dieser Arbeit ist die Entwicklung einer Methodik, um mithilfe von KI die Standortplanung und die Transportnetzoptimierung im Bereich der Distributionslogistik durchzuführen. Der dafür ausgewählte Ansatz ist die Suche nach Lagerstandorten, die so gelegen sind, dass die Summe der Distanzen vom Lager aus zu den Kunden unter Berück-sichtigung unterschiedlicher Gewichtungen der Kunden möglichst gering ist. Bei der Fest-legung mehrerer Lagerstandorte müssen die Empfänger zunächst in Gruppen aufgeteilt werden. Ein weiteres Ziel der Standortplanung ist die Bestimmung der Anzahl an Lageror-ten. Die Transportnetzoptimierung beschränkt sich in dieser Arbeit lediglich auf die Be-stimmung der Lager, in denen ein bestimmtes Produkt gelagert werden soll. Eine Möglich-keit zur Unterteilung von Kunden ist die Zuordnung eines Kunden zu der Kundengruppe, zu der er die höchste Ähnlichkeit aufweist. Diese Zuordnung soll durch eine Maschine er-folgen. Dabei kommen Methoden des maschinellen Lernens zum Einsatz, welche ein Teil-gebiet der künstlichen Intelligenz darstellen. Konkret handelt es sich um Zentroid-basiertes Clustering. Da die zur Verfügung stehenden Daten nicht vollständig ausreichen, wird die Methodik außerdem um eine Initialisierungsphase und um eine Datenaufbereitungsphase ergänzt.



Hartnagel, Mike;
Multi-agent deep reinforcement learning in modular production systems. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In den vergangenen Jahren wurden neue Methoden zur Erhöhung der Flexibilität von Fertigungssystemen entwickelt. Eine dieser Methoden besteht darin, anstelle einer Fließfertigungslinie die Fertigungsstationen in einem matrixförmigen Layout anzuordnen und starre Fördersysteme durch fahrerlose Transportsysteme (FTS) zu ersetzen. Die FTS transportieren die Werkstücke von Fertigungsstation zu Fertigungsstation in variabler Reihenfolge. Diese Methode wird als modulares Produktionssystem (MPS) bezeichnet. Aufgrund der Komplexität und Dynamik eines modularen Produktionssystems ergibt sich die Frage nach einem geeigneten Steuerungssystem zur Bestimmung der optimalen Folge von Fertigungsoperationen und der optimalen Route der Werkstücke von Fertigungsstation zu Fertigungsstation. Da die Route der Werkstücke von FTS bestimmt wird, kann dieses Steuerungsproblem als ein Problem der Entscheidungsfindung von FTS in modularen Produktionssystemen interpretiert werden. Ziel dieser Arbeit ist es, die Anwendbarkeit von Multi-Agent Deep Reinforcement Learning (MADRL) in Kombination mit diskret-ereignisgesteuerter Simulation zur Lösung dieses Steuerungsproblems zu testen. Dazu wurde eine MADRL Methode, genannt Multi-Agent Proximal Policy Optimization (MAPPO), in Python implementiert. Die implementierte Software wurde dann mit einem Plant Simulation-Modell eines modularen Produktionssystems verbunden, um die Agenten, welche die FTS steuern, zu trainieren. Simulationstests zeigen, dass die trainierten Agenten vergleichbare Ergebnisse wie eine heuristische Steuerungsstrategie und bessere Ergebnisse als eine zufällige Steuerungs-strategie erzielen. Darüber hinaus erzielen sie bessere Ergebnisse als die Single-Agent Deep Reinforcement-Learning Methode Proximal Policy Optimization (PPO), bei der alle FTS von einem einzigen Agenten gesteuert werden. Diese Ergebnisse zeigen die Anwendbarkeit von MADRL in Kombination mit diskret-ereignisgesteuerter Simulation zur Steuerung von FTS in modularen Produktionssystemen und die Vorteilhaftigkeit von MAPPO gegenüber der Single-Agent Methode PPO.



Process Mining zur Untersuchung von gefarmten Daten. - Ilmenau. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Ziel der vorliegenden Masterarbeit ist zu untersuchen, inwiefern Process-Mining-Methoden auf gefarmte Daten angewendet werden können. Process Mining wird normalerweise auf den Daten eines Realsystems betrieben, um Erkenntnisse über einen Prozess zu erlangen. Prozesskenntnisse führen dazu, dass Realprozesse entdeckt werden, Abweichungen zwischen der Prozessdefinition und dem Realprozess aufgedeckt werden und sich daraus Prozessverbesserungen ableiten lassen. Process Mining betrachtet die Prozesse aus verschiedenen Perspektiven, um die Erkenntnisse vollumfänglich gewinnen zu können. Grundlage des Process Mining bilden Eventlogs. Diese fordern eine eindeutige Zuordnung von Ereignissen zu einem bestimmten Vorgang. Eine eindeutige, vorgangsspezifische Kennzeichnung aller Vorgänge ist Pflicht. Währenddessen Process Mining mit realen Daten arbeitet, arbeitet Data Farming auf einem virtuellen System. In einem Simulationsmodell werden viele verschiedene Eingabeparameter verändert, um Wirkungszusammenhänge im Modell aufzudecken. Jede Eingabeparameterkonfiguration bildet die Grundlage für ein eigenes Experiment. Im Rahmen des Data Farming werden unzählige Experimente mit unterschiedlichen Eingabeparameterkonfigurationen durchgeführt. Die mittels Data Farming generierten, virtuellen Daten werden anschließend mittels Process Mining ausgewertet. Für die sinnvolle Kombination der beiden Methoden wurde ein Konzept erarbeitet, wie die einzelnen Vorgänge aus den unterschiedlichen Experimenten eindeutig gekennzeichnet werden können. Die Eventlogs wurden auch um zusätzliche Informationen ergänzt. Für die Validierung des Konzepts entstand ein Simulationsmodell, auf dem Data Farming angewendet wurde. Petri-Netze, Pfade aus den Eventlogs und Diagramme bilden die Grundlage für die Auswertung der durch das Simulationsmodell generierten Daten. Währenddessen Petri-Netze und Pfaddarstellungen überwiegend der Prozessentdeckung dienen, werden mittels Diagrammen Wirkungszusammenhänge aufgedeckt. Durch die unterschiedlichen Auswertungsmethoden konnten mehrere Perspektiven des Process Mining Anwendung finden. Bestimmte Eingabeparameterkonfigurationen führen zu längeren Durchlaufzeiten im Prozess. Durch die Kombination der beiden Methoden konnte auch ein Fehler im Simulationsprogramm aufgedeckt werden. Die Untersuchung hat gezeigt, dass sich Data Farming und Process Mining sinnvoll nacheinander anwenden lassen und die Kombination beider Methoden einen Mehrwert liefert.



Voigt, Rafael;
Resilienz von digitalen Zwillingen gegenüber kontinuierlich veränderlichen Systemen. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Digitale Zwillinge in der Produktion sind im Kontext von Industrie 4.0 und intelligenten Fabriken von immer größerer Bedeutung. Durch neue Technologien und große Datenmengen, die in heutigen Produktionsstätten entstehen, können digitale Zwillinge immer häufiger Einzug in die Softwarelandschaft von Unternehmen finden. Jedoch muss dafür die Problematik des veränderlichen Systems „Produktionsstätte“ behandelt werden. Systemveränderungen, die durch Umbau des Systems zustande kommen, sind dabei die weniger interessanten Veränderungen, da offensichtlich ist, dass der digitale Zwilling ebenfalls geändert werden muss. Der tägliche Verschleiß von Maschinen und Werkzeugen, kontinuierliche Prozessoptimierung, sowie der ständige Wandel, dem Prozesse unterliegen sind alles relevante Faktoren, die es in Bezug auf die Anwendung digitaler Zwillinge in diesem Bereich zu berücksichtigen gilt. In der vorliegenden Arbeit wird thematisiert, wie ein digitaler Zwilling aktuell bleiben und Resilienz gegen die stetigen Veränderungen in modernen Fabriken aufbauen kann. Dafür werden Methoden vorgestellt, die eine Adaption des digitalen Zwillings ermöglichen. Adaptionsbedarfsanalyse, die Quantifizierung von Veränderungen und die Adaptionsdurchführung sind Fokus dieser Arbeit. Verschiedene stochastische Verteilungen für die Beschreibung des Systemverhaltens werden betrachtet. Statistische Hypothesentests wurden als zentrale Möglichkeit identifiziert, Adaptionsbedarf festzustellen. Gezieltes Stichprobenziehen aus Produktionsdaten ermöglichte die Schätzung der relevanten Verteilungen. Mithilfe von Schätzern, die in Iterationen an die Stichprobenverteilung angepasst werden, konnte eine Parametrisierung der Stichprobenverteilungen durchgeführt werden. In einem Prototyp-System mit einer Emulation der Realität, digitalem Zwilling und Datenbank des digitalen Zwillings wurden diese Methoden erfolgreich implementiert. Von der Emulation verschiedenartig verteilte Daten wurden unter Nutzung des Prototyps generiert. Die Adaption des digitalen Zwillings wurde über die Datenbank bewirkt. Die Wirksamkeit der kombinierten Hypothesentests mit Anpassungstests für die Adaption der Parameter im digitalen Zwilling wurde mithilfe von Experimenten evaluiert. Diese Experimente zeigen, dass mit dem System Anpassungen durchgeführt werden. Die Verteilungstyperkennung wurde als Kriterium für eine treffende Schätzung der Verteilungsparameter identifiziert. Wird die Verteilung richtig erkannt, werden auch die Parameter dieser Verteilungen treffend geschätzt. Die nötigen Schritte für eine Weiterentwicklung des Systems, sowie zukünftige Forschungsrichtungen wurden in einem Ausblick und Fazit diskutiert.



Reckleben, Nina;
Robustheitsuntersuchungen für Verkehrssimulationen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Mobilität ist ein wesentlicher Bestandteil des alltäglichen Lebens, weshalb es wichtig ist, die Funktionalität von Verkehrsstrukturen zu gewährleisten. Im Rahmen dieser Arbeit wird die Frage beantwortet, wie eine Methode gestaltet sein sollte, mit der sich die Robustheit von Verkehrssystemen gegenüber äußeren nicht steuerbaren Einflüssen bewerten lässt. Hierfür werden verschiedene Fakten und Methoden der Verkehrssimulation sowie Robustheitsuntersuchungen dargelegt. Dabei spielt vor allem das Verständnis von Robustheit nach dem Wissenschaftler G. Taguchi eine wichtige Rolle, denn er unterscheidet bei den Einflussgrößen eines Systems zwischen solchen, die im Vorhinein bestimmt und solchen, die nicht bestimmt werden können. Die Größen werden in einem Versuchsplan gegenübergestellt und anschließend ihr Einfluss auf das System untersucht. Die Verlustfunktionen nach Taguchi finden ebenfalls ihre Anwendung und geben die Parametereinstellung wieder, bei der das System in seinen Ergebnisgrößen die niedrigsten Schwankungen aufweist. Die durchgeführte und später ausgewertete Machbarkeitsanalyse an einem Prototyp aus der Praxis untermauert, dass dieses entwickelte Konzept eine wirksame Methode der Robustheitsuntersuchungen für Verkehrssysteme ist.



Zong, Xinyu;
Automatische Clusteranalyse mittels geeigneter Metriken. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Bei Clustering-Algorithmen des maschinellen Lernens hängen die Clustering-Ergebnisse nicht nur vom Modell des Algorithmus ab, sondern auch von der Auswahl der Hyperparameter. Im Allgemeinen erfolgt die Auswahl der Hyperparameter manuell. Nach jeder Eingabe der Hyperparameterkombination werden die Ergebnisse der Berechnung ausgedruckt und eine bestimmte Metrik zur Auswertung ausgewählt. Dies ist zu zeit- und arbeitsintensiv, und die Auswahl der geeigneten Hyperparameter hängt von der Erfahrung des Benutzers ab. Deshalb ist die automatische Parametrisierung eine bessere Lösung. Der Schwerpunkt dieser Arbeit konzentriert sich auf der automatischen Parametrisierung im Clustering-Algorithmus und der Auswahl der geeigneten Metrik für die Auswertung sowie der Auswahl der optimalen Parameterkombination. Zu diesem Zweck wird zunächst die Literaturrecherche durchgeführt, um Clustering-Algorithmen und die Algorithmen zur automatischen Parametrisierung zu erlernen, dann ein Versuchsplan festgelegt und das Modell zum Testen aufgebaut: Zunächst wird ein Hyperparameterraum eingerichtet und der Datensatz importiert, das Modell des Clustering-Algorithmus wird mit dem Hyperparameter-Optimierer gekoppelt und die Clustering-Ergebnisse sowie die Bewertung der verwendeten Metrik werden ausgegeben. Schließlich werden die verschiedenen automatischen Parametrisierungsstrategien (hyperparametrische Optimierer) für die verschiedenen Algorithmen bewertet und die besten Strategien für die verschiedenen Clustering-Algorithmen ausgewählt.



De Rosa, Leandro;
Prädiktion von Auftragsreihenfolgen für die Simulation von Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Der Einsatz von Werkzeugen und Modellen des Maschinellen Lernens in der Produktionsplanung und -steuerung ist in den letzten Jahren dank des technologischen Fortschritts - hauptsächlich der Datenaufnahme - stark gewachsen. Insbesondere sind prädiktive Systeme für die Vorhersage wichtiger Ereignisse in einem Produktionssystem von besonderem Interesse. In dieser Arbeit sind Methoden des Maschinellen Lernens und der Zeitreihenanalyse und -prognose für die Vorhersage von Auftragsreihenfolgen eingesetzt worden. Dabei ist die Problemstellung in zwei Teilaufgaben - die Absatz- und die Reihenfolgeplanung - unterteilt worden. Um diese zwei Planungen durchzuführen, erfolgte zuerst eine umfassende Literaturauswertung zu den in dieser Arbeit relevanten Forschungsgebieten. Darauf aufbauend ist ein Prototyp zur Lösung der ersten Teilaufgabe entwickelt und implementiert worden. Dieser umfasst die Auswahl der einzusetzenden Verfahren, die Anforderungen an das System sowie die methodische Vorgehensweise für die Durchführung von empirischen Versuchen. Zwei Prädiktionsalgorithmen sind ausgewählt worden: das ARIMA-Modell aus der Zeitreihenanalyse und -prognose stochastischer Prozesse und das CNN-LSTM-Modell aus dem Gebiet des deep learning. Um die Leistungsfähigkeit beider Modelle zu untersuchen, ist eine Zeitreihe betrachtet worden, die eine starke Saisonalität sowie einen quasilinearen Trend aufwies. Dieser Einführungsversuch zeigte eine Vergleichbarkeit zwischen der Genauigkeit der Modelle bei einem kleineren Prognosezeitraum, während das ARIMA-Modell bei längeren Prognosehorizonten eine höhere Genauigkeit erzielte. Die Durchführung empirischer Versuche mit betrieblichen Daten zeigte, dass die Zeitreihen aufgrund ihrer Beschaffenheit schwierig zu prädizieren sind. Jedoch konnte die glatte Komponente durch Vorverarbeitung mittels Kernregression erfasst und mithilfe beider Algorithmen vorhergesagt werden. Das CNN-LSTM-Modell zeigte in diesem Versuch keine Generalisierungsfähigkeit, während das ARIMA-Modell zuverlässigere Prognosen lieferte. Die dadurch erstellen Nachfrageprognosen sind schließlich erfolgreich in einer vereinfachten Produktionsumgebung für die Bestimmung der Reihenfolge für einen vorgegebenen Zeitraum eingesetzt worden. Eine Automatisierung der Verbindung zwischen beiden Planungen ist erreicht worden und stellt somit das relevanteste Forschungsergebnis dieser Arbeit dar.



Laufer, Jannik;
Einsatz von digitalen Werkerassistenzsystemen in der variantenreichen Fertigung. - Ilmenau. - 133 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Industrieunternehmen stehen zunehmend vor der Herausforderung immer kundenspezifischere Erzeugnisse herzustellen. Die resultierende variantenreiche Fertigung steigert oft die Komplexität von Arbeitsaufgaben der Werker und damit deren kognitiven Belastung. Werkerassistenzsysteme versprechen eine bedarfsgerechte Bereitstellung von Informationen, um den Werker bei der Beherrschung dieser Komplexität zu unterstützen. Bei der Auswahl von Werkerassistenzsystemen werden allerdings vermehrt die Rahmenbedingungen in Fertigung und IT sowie die Betreibersicht vernachlässigt. Daher ist es vor allem bei der variantenreichen Fertigung notwendig, die Aufwände für die Bereitstellung und Verwaltung der Informationen im Werkerassistenzsystem zu berücksichtigen. Ziel dieser Masterarbeit ist es, ein Konzept für die Auswahl geeigneter Werkerassistenzsysteme bei variantenreicher Fertigung zu entwickeln. Dadurch soll vermieden werden, dass in der Praxis Systeme eingesetzt werden, deren Aufwände für die Bereitstellung und Verwaltung von Informationen den potentiellen Nutzen übersteigen. Zusätzlich soll geprüft werden, wie eine zukunftsfähige IT-Architektur gestaltet werden kann und ob ein standardisiertes Informationsmodell als Basis verschiedener Lösungen zur Werkerassistenz genutzt werden kann. Dafür wurden Experten befragt, die bereits Werkerassistenzsysteme in einem Industrieunternehmen mit variantenreicher Fertigung einsetzen. Als Grundlage dieser empirischen Untersuchung dienen morphologische Kästen, die sowohl die Lösung als auch deren Rahmenbedingungen in Fertigung und IT klassifizieren. Das Konzept zeigt, dass sich die Werkerassistenzsysteme in drei Archetypen einordnen lassen, die sich hauptsächlich durch den Automatisierungsgrad des Variantenmanagements unterscheiden. Bei manuellen und teilweise generischen Werkerassistenzsystemen erfolgt die Erstellung und Verwaltung von Informationen für jede Variante einzeln. Generische Systeme können diese dahingegen automatisch aus einem Informationsmodell erstellen. In Abhängigkeit der Komplexität von Rahmenbedingungen in der Fertigung konnten so sinnvolle Einsatzbereiche für die Archetypen aus Betreibersicht abgeleitet werden. Das soll z.B. Fertigungsplanern in der Praxis eine systematische Auswahl von sinnvollen Werkerassistenzsystemen ermöglichen, bei denen auch die Aufwände für den Lösungsbetrieb berücksichtigt sind. Es wird zudem am Beispiel eines generischen Werkerassistenzsystems gezeigt, wie eine IT-Architektur und ein Informationsmodell gestaltet werden können. Weiterführende Forschung könnte am Konzept für die Auswahl geeigneter Werkerassistenzsysteme anknüpfen und die Reduktion des Aufwands für die Erstellung und Verwaltung von Informationen bei variantenreicher Fertigung thematisieren.



Rudolf, Marius;
Retrofitting - digitale Ummantelung mittels Edge Computing : intelligentes Nachrüsten zur Digitalisierung bestehender Maschinen. - Ilmenau. - 107 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Das Generieren und Gewinnen von Daten für bestehende und zukünftige Produktionsprozesse gewinnt im Zeitalter von Industrie 4.0 zunehmend an Bedeutung. Die Verarbeitung und Nutzung dieser Daten innerhalb eines vernetzten Produktionssystems stellt eine Schlüsselaktivität in Fertigungsunternehmen dar. Dies bietet verschiedene Potentiale für die Unternehmen wie Kostensenkungen, das Vereinfachen von Prozessabläufen oder auch eine schnellere fehlerfreie Fertigung. Demgegenüber stehen große Herausforderungen vor allem für kleinere und mittlere Unternehmen, da diese meist über einen niedrigen Digitalisierungsgrad verfügen und der Übergang zu einer intelligenten Fertigung oftmals mit hohen Investitionen verbunden ist. Ein herausfordernder Aspekt, den allerdings die meisten Fertigungsunternehmen gemeinsam haben, ist eine installierte Basis an älteren Maschinen, die noch nicht mit der Idee der intelligenten Fertigung kompatibel sind, da sie nicht über die benötigte Soft- und Hardware verfügen. Für die Nutzung der Potentiale stehen die Unternehmen vor der Frage, ob sie die Maschinen ersetzen oder die vorhandene Anlage nachrüsten möchten. Retrofitting oder auch Smart Retrofitting wird als eine Maßnahme zur Aufrüstung, Aktualisierung oder Erweiterung und Verbesserung digitaler Funktionen verstanden. Diesen Aspekt greift die vorliegende Masterarbeit auf und beschäftigt sich mit dem intelligenten Nachrüsten eines bestehenden Versuchsaufbaus im speziellen Hinblick auf die Generierung, Verarbeitung und Speicherung von Energie- und Steuerdaten. Als Grundlage werden hierzu wichtige Begrifflichkeiten wie das Retrofitting und Smart Retrofitting anhand des aktuellen Forschungsstandes erläutert. Weiterhin wird erstmalig eine Definition der Begrifflichkeiten der digitalen und datentechnischen Ummantelung geschaffen. Die Hauptaufgabe dieser Arbeit besteht in der Realisierung eines prototypischen Konzepts, welches in der Lage ist, die Steuer- und Energiedaten eines SPS-betriebenen Versuchsaufbaus aufzunehmen, zu verarbeiten und anschließend zur Weiterverarbeitung zur Verfügung zu stellen. Das Konzept wird dabei aufbauend auf den Grundlagen sowie auf den zuvor definierten Anforderungen entwickelt. In dieser Arbeit wird ein Low-Cost Auf-bau geschaffen, der unter der Verwendung von Node-Red, eines Raspberry Pis sowie eines Energiemessgeräts in der Lage ist, die gestellten Anforderung zu erfüllen.



Preußer, Lukas;
Konzeption einer Methode zur Optimierung des Designs von modularen Montagesystemen. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Aufgrund der Globalisierung, der Einführung neuer Technologien und der steigenden Individualisierung von Produkten befindet sich die heutige Fertigungsindustrie in einem sehr komplexen und dynamischen Umfeld. Daher muss die Fertigung flexibel und wandlungsfähig gestaltet werden, damit Unternehmen zukünftig weiterhin erfolgreich am internationalen Markt bestehen können. Modulare Montagesysteme, die Elemente der Industrie 4.0 mit einer werkstattorientierten Fertigung verbinden, weisen eine höhere Flexibilität und Wandlungsfähigkeit als traditionelle Fertigungssysteme auf. Wichtig hierbei sind die Gestaltung und Auslegung dieser Montagesysteme. In dieser Ausarbeitung werden unterschiedliche Gestaltungsdimensionen und verschiedene Bewertungskennzahlen der modularen Montage analysiert. Auf dieser Grundlage wird eine simulationsbasierte Methode zur Optimierung des Designs von modularen Montagesystemen entwickelt. Dabei kommen unterschiedliche Optimierungsalgorithmen zum Einsatz, welche im Verlauf der Ausarbeitung auf zwei Anwendungsbeispiele angewendet und untereinander verglichen werden. Mit Hilfe der Anwendungsbeispiele wird gezeigt, dass sich die entwickelte, simulationsbasierte Methode für die Optimierung des Designs von modularen Montagesystemen eignet.



Shen, Yipei;
Simulationsbasiertes Reinforcement Learning einer Ampelsteuerung - Entwicklung von Q-Learning und Deep Q-Learning in der Ampelsteuerung. - Ilmenau. - 76 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Der Zweck dieser Masterarbeit ist es, die Anwendung des Reinforcement Learning auf eine Verkehrskreuzung zu untersuchen, um die durchschnittliche Wartezeit von Fahrzeugen zu verringern. In dieser Masterarbeit werden mithilfe der AnyLogic-Simulationssoftware zwei auf Simulationen basierende Reinforcement-Learning-Algorithmen entwickelt: Q-Learning und Deep Q-Learning. Zu diesem Zweck muss zuerst ein Simulationsmodell einer Straßenkreuzung entworfen werden. Dann werden diese beiden Reinforcement-Learning-Algorithmen jeweils mit dem Simulationsmodell gekoppelt. Beide Algorithmen haben die durchschnittliche Wartezeit von Fahrzeugen in den Simulationsergebnissen erfolgreich reduziert. Um die Qualität des Entwicklungsprozesses von Verstärkungslernalgorithmen sicherzustellen, wird in dieser Masterarbeit auch ein qualitätsbasiertes Vorgehensmodell verwendet. Es umfasst die Verifikation und Validierung, um die Qualität der Simulation sicherzustellen, sowie die Qualitätssicherung der Software.



Dontsov, Artem;
Datenvorverarbeitung von Zeitreihenmengen durch Dynamic Time Warping. - Ilmenau. - 127 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die vorliegende Masterarbeit beschäftigt sich mit der in die Datenvorverarbeitung von Zeitreihenmengen mit Dynamic Time Warping. Dafür wird erstmalig eine Definition für den Begriff "dynamische Zeitreihenmengen" geschaffen. Weiterhin wird der klassische Dynamic Time Warping Algorithmus mit verschiedenen Optimierungsmöglichkeiten, aber auch unterschiedliche abgewandelte Dynamic Time Warping Algorithmen vorgestellt, die für verschiedene Anwendungsfälle eingesetzt werden können. Zusätzlich wird anhand der vorgestellten Algorithmen der Fast Shape Dynamic Time Warping Algorithmus entwickelt, der bessere Ergebnisse in ähnlicher Laufzeit wie der klassische Algorithmus erzielt. Um die Eignung des Dynamic Time Warping Algorithmus in der Praxis zu bestimmen, werden drei Anwendungsfälle betrachtet. Hierfür wird ein Sequence-to-Sequence Modell verwendet, welches anhand von Steuerungscode die zugehörigen Stromverbrauchzeitreihen vorhersagt. Beim ersten Anwendungsfall wird die Auswirkung der Erweiterung der vorhandenen Zeitreihenmenge mit verschiedenen Methoden untersucht, wodurch festgestellt werden konnte, dass mit Vergrößerung der Menge sich das Lernverhalten des betrachteten Modells verbessert. Wobei insbesondere die Datenerweiterung mit Fast Shape Dynamic Time Warping in Kombination mit dem Weighted Dynamic Time Warping Barycenter Averaging zu guten Ergebnissen geführt hat. Der zweite Anwendungsfall betrachtet das Vorgewichten des Sequence-to-Sequence Modells mit einem Sequence Autoencoder und einem Sequence Denoising Autoencoder, die mit einer erweiterten Zeitreihenmenge trainiert wurden. Hierbei konnte eine anfängliche Verbesserung der Genauigkeit erzielt werden, die jedoch während des Trainierens wieder abgenommen hat, was darauf schließen lässt, dass die Vorgewichtung des Modells begrenzten Effekt auf das Lernverhalten besitzt. Im letzten Anwendungsfall wird Dynamic Time Warping als Metrik untersucht und mit anderen Metriken verglichen. Dabei konnte eine Ähnlichkeit zur verglichenen Genauigkeitskurve festgestellt werden, was die Nutzung von Dynamic Time Warping als potenzielle Güte- und Fehlerfunktion für zukünftige Forschungen vorstellbar macht.



Landherr, Simon;
Automatisierte Generierung von Simulationsmodellen unter Verwendung des standardisierten Austauschformats AutomationML (AML) : eine Fallstudie in einer betrieblichen Anwendungsumgebung. - Ilmenau. - 127 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Die diskret-ereignisorientierte Simulation (DES) wird heutzutage u.a. eingesetzt, um bestehende oder zukünftige Produktionssysteme digital zu analysieren und zu erproben, wie bspw. in der Automobilindustrie oder in der Halbleiterfertigung. Neben einer Vielzahl an Vorteilen, stehen der DES auch Nachteile gegenüber. Die Durchführung von Simulationsstudien ist u.a. zeitaufwändig und komplex. Daneben ist die Informationsbeschaffung für die Simulation aufwändig, da die oft mangelnde Kompatibilität unternehmensinterner Planungswerkzeuge den Datenaustausch behindert. Ein vielversprechender Lösungsansatz ist die automatisierte Generierung von Simulationsmodellen (ASMG), welche bereits seit mehreren Jahren intensiver erforscht wird. Unter der ASMG versteht man den Ablauf spezifischer digitaler Prozeduren bzw. Algorithmen, wodurch automatisiert Simulationsmodelle erzeugt werden. Wichtige Bestandteile innerhalb der ASMG sind Standardisierungen für den Datenaustausch, welche die Strukturierung der Daten im Zuge des Informationstransfers in das Simulationswerkzeug regeln. Bisherige ASMG-Prozesse wurden kaum im praktischen Umfeld erprobt oder beinhalten keine Funktionalitäten, um das dynamische Verhalten (Logik) von Produktionssystemen semantisch abzubilden. Demgegenüber erweist sich insbesondere die manuelle bzw. händische Implementierung der Logikbestandteile von Produktionssystemen als äußerst zeitaufwendig. Zudem werden Standardisierungen teilweise nicht mehr weiterentwickelt oder dienen explizit nicht dem Austausch von Layout-Informationen, die vor allem in den Planungsphasen von Produktionssystemen wichtig sind. Das Ziel dieser Arbeit bestand deshalb darin einen ASMG-Prozess zu entwickeln, der auf dem AutomationML-Standard basiert, bisherige ASMG-Prozessarchitekturen berücksichtigt und an die Rahmenbedingungen eines exemplarischen Unternehmensumfelds angepasst ist. Der AutomationML-Standard gilt als vielversprechend, da er ein ganzheitliches System zur digitalen Abbildung von Produktions- und Fabriksystemen ist, den Datenaustausch fördert und explizit die Logik von Produktionssystemen abbilden kann. Darüber hinaus wurde der ASMG-Prozess an praktischen Anwendungsfällen in Form von Produktionssystem-Layouts erprobt und auf Basis allgemeingültiger Kriterien bewertet. Das Hauptaugenmerk dieser Arbeit lag auf der Erforschung, inwieweit die Logik von Produktionssystemen mithilfe des ASMG-Prozesses abgebildet werden kann und welche Rolle dabei dem AutomationML-Standard zukommt.



Hoinkis, Patrizia Veronika;
Automated generation, validation and verification of simulation models for production and logistics systems. - Ilmenau. - 70 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Als einer der Kernbereiche der Digitalen Fabrik gewinnt die Simulation von Prozessen in Produktion und Logistik zunehmend an Bedeutung. Allerdings steht sie vor der Herausforderung, dass die Durchführung von Simulationsstudien zeit- und kostenintensiv ist. Mit der Automatisierten Generierung von Simulationsmodellen existieren seit Mitte der 1990er-Jahre ein Ansatz, um diese Aufwände deutlich zu reduzieren. Typischerweise basieren die Ansätze der Modellerstellung auf einer validierten Datengrundlage, was in der Praxis jedoch oft nicht garantiert werden kann. Dies bildet den Ansatzpunkt dieser Masterarbeit. In dieser wird eine Methodik zur automatisierten Modellgenerierung entwickelt sowie untersucht, wie derartige Simulationsmodelle verifiziert und validiert werden können. Auf Basis der Nutzeranforderungen wird ein Ansatz zur Modellgenerierung erarbeitet. Hierbei wird eine externe Software entwickelt, welche ausgehend von den Eingangsdaten das Modell erstellt. Die Simulationssoftware dient zur Visualisierung des Modells. Um dieses und weitere automatisiert generierte Simulationsmodelle zu verifizieren und zu validieren, wird ein V&V Vorgehensmodell entwickelt. Als Ansatzpunkte für V&V Aktivitäten werden zum einen die Eingangsdaten, zum anderen das ausführbare Modell gesehen. Für diese beiden V&V-Phasen wird untersucht, welche Aktivitäten durchgeführt werden sollten. Darüber hinaus werden geeignete V&V Techniken diskutiert, wobei ein hoher Automatisierungsgrad angestrebt wird. Für die Eingangsdaten ergeben sich die V&V Aktivitäten aus den Datenqualitätsproblemen beim Einsatz von einzelnen bzw. multiplen Datenquellen. Um diese Datenquellen automatisiert auf fehlende bzw. fehlerhafte Daten zu überprüfen, werden verschiedene, automatisierbare Techniken vorgestellt. Für die automatisierte V&V des ausführbaren Modells eignen sich verschiedene Techniken, die in der Simulationsliteratur diskutiert werden. Zusätzlich empfiehlt sich der Einsatz von subjektiven Techniken, bei denen der Anwender mit einbezogen wird. Durch eine Kombination geeigneter Techniken sowie die Zusammenarbeit mit den Nutzern soll eine hohe Glaubwürdigkeit der Ergebnisse erreicht werden. Das vollständige V&V Vorgehensmodell besteht aus den zwei V&V Phasen mit zugehörigen Aktivitäten und einer Auswahl geeigneter Techniken.



Ye, Hemin;
Dezentrale Steuerung in modularen Produktionssystemen mittels Agententechnologie. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Multiagentensysteme sind ein Bestandteil von verteilter künstlicher Intelligenz. Die einzelnen Agenten dabei verhalten sich autonom, reaktiv und proaktiv in der Umwelt, um ihre Ziele zu erreichen. Außerdem zeigen sie ihre Sozialfähigkeiten bei Interaktionen miteinander, vor allem durch Kooperationen, Verhandlungen sowie Koordinationen. Inzwischen entscheiden sie lokal für sich selbst, woraus das Verhalten des gesamten Systems emergiert. Modulare Produktionssysteme, die als einen Lösungsansatz für die zunehmende Variantenvielfalt wegen individualisierten Kundenanforderungen konzeptioniert wurden, sind eine aussichtvolle Alternative der traditionellen Fließbandfertigung. Die Flexibilität in modularen Produktionssystemen verspricht einen breiten Spielraum für Entscheidungen bezüglich der Produktionssteuerung. Wegen der Entkopplung der Elemente ist die Einsatzmöglichkeit des dezentralen Entscheidungstreffens mittels Agententechnologie sichtbar. In dieser Masterarbeit sollte ein Multiagentensystem für die Produktionssteuerung in modularen Produktionssystemen entwickelt werden. Die konkreten Steuerungskonzepte wurden für einen Prototyp von modularen Produktionssystemen eingesetzt. Die Entscheidungsgüte der drei Steuerungskonzepte wurden anhand simulativer Experimente validiert. Das Modell des Produktionssystems wurde mit der Simulationssoftware Plant Simulation erstellt. Die geeigneten Einsatzszenarien der jeweiligen Steuerungskonzepte wurden in Anlehnung an das Trichtermodell klassifiziert. Schließlich wurde die Flexibilität des Prototyps dadurch bewiesen, dass er an den Engpass und die Veränderungen des Modell-Mix angepasst wurde.



Schliebe, Jan;
Reinforcement Learning zur Steuerung von FTS in der modularen Fertigung. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2020

Zunehmende Ansprüche an die Individualität von Produkten und die damit einhergehende steigende Variantenvielfalt stellen Herausforderungen für heutiger Produktionssysteme dar. Die vorliegende Arbeit stellt auf dieser Grundlage das Produktionskonzept der modularen Fertigung vor. Diese zeichnet sich entscheidend durch ihren werkstattähnlichen Charakter aus, in der die Bearbeitung der Produkte auf redundanten Fertigungsstationen durchgeführt wird. Auf diese Weise entsteht eine hochgradige Flexibilität zur Bewältigung des steigenden heterogenen Modellmix der Produkte. Transportaufgaben werden in der modularen Fertigung von fahrerlosen Transportsystemen (FTS) ausgeführt. Der hohe Automatisierungsgrad dieser FTS ermöglicht hierbei die Einbindung KI-basierter Steuerungslogiken. Die Arbeit stellt dazu einen agentenbasierten Ansatz für die Entwicklung von Steuerungsstrategien mittels Deep Reinforcement Learning vor. Jüngste Erfolge lassen neue Potenziale in diesem Bereich des maschinellen Lernens erkennen, der sich durch die Ermittlung von Lösungsstrategien mittels Trial-and-Error-Suche auszeichnet. Die Hauptaufgabe der Arbeit besteht in der Realisierung eines prototypischen Steuerungskonzepts, das die dynamische Entscheidungsfindung mittels Deep Reinforcement Learning vornimmt und dabei die Entwicklung von Strategien zur Steuerung von FTS im modularen Fertigungssystem ermöglicht. In der Arbeit wird ein Gesamtsystem geschaffen, das unter Verwendung von Python, TensorFlow und Keras die KI-basierte Steuerung in einem in Plant Simulation erstellten Simulationsmodell der modularen Fertigung ermöglicht. Innerhalb der Hauptuntersuchung der Arbeit werden zunächst Steuerungsstrategien auf Basis von Deep Reinforcement Learning ermittelt und anschließend ein Vergleich zu einem Referenzmodell, bestehend aus einem simplen Entscheidungsalgorithmus, hergestellt. Dabei werden beide Steuerungslogiken hinsichtlich systembestimmender Kennwerte der modularen Fertigung untersucht und eine Einordnung der entwickelten Steuerungslogik des Deep Reinforcement Learning vorgenommen.



Damm, Peter Johannes;
Simulationsbasierte Reihenfolgeoptimierung mittels Deep Reinforcement Learning. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Methoden des Deep Reinforcement Learnings (Deep RL) sind im aktuellen Interesse der Forschung. Sie funktionieren nach dem Prinzip des Versuchs und Irrtums, bei dem ein Deep Neural Network durch die Handlungen eines Reinforcement Learning Agenten trainiert wird. Dieser Agent befindet sich in einer Umwelt und will diese durch Aktionen beeinflussen. Hierzu betrachtet er den aktuellen Status der Umwelt, auf dessen Basis eine Aktion ausgewählt wird. Die Umwelt übergeht in Folge der Aktion in einen neuen Status. In diesem erhält der Agent ein Signal über die Güte seiner vorhergehenden Aktionsauswahl, den Reward. Im Rahmen dieser Masterarbeit sollte ein Konzept zur Anwendung eines Deep RL Agenten in der simulationsbasierten Reihenfolgeoptimierung erstellt werden. Dieses Konzept wurde konkret für eine Fließproduktion mit zwei Maschinen entwickelt. In einem Prototyp wurde die Fließproduktion in das Simulationsprogramm PlantSimulation der Siemens AG implementiert. Des Weiteren wurden drei verschiedene Deep RL Algorithmen programmiert, die das Reihenfolgeproblem innerhalb des Simulationsmodells lösen sollten. Mit diesen wurden mehrere Experimente durchgeführt, um diejenigen Parameterkombination innerhalb der Deep RL Agenten zu finden, die zu der besten Lösung des Reihenfolgeproblems führt.



Haberzettl, Markus;
Prognose des Energieverbrauchs von Industriebetrieben mittels Rekurrenter Neuronaler Netze und Case-Based Reasoning. - Ilmenau. - 64 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Der Ausbau des Smart Grids in Deutschland sowie dessen Förderung durch die Politik, ermöglicht eine breite Erhebung von Energieverbrauchsdaten, welche für Prognosen mittels Deep Learning nutzbar sind. Insbesondere die Prognose des Verbrauchs von Großabnehmern wie Industriebetrieben bietet für Energieproduzenten das Potenzial, Produktion und Preise hieran auszurichten. Herausfordernd ist der mit Deep Learning verbundene Rechenaufwand, welcher kurzfristige Prognosen limitiert. In dieser Arbeit werden daher zwei Forschungsfragen untersucht: Ist dieser Rechenaufwand mittels Case-Based Reasoning reduzierbar und ist bei einer solchen Reduktion die gleiche Prognosequalität zu erreichen? Vor diesem Hintergrund sind zur Durchführung der Deep Learning-Prognosen Rekurrente Neuronale Netze in Form von Gated Recurrent Units zu verwenden. In einem ersten Ansatz A1 ist der zukünftige Verlauf von Energiezeitreihen aus Industriebetrieben anhand der Gated Recurrent Units zu prognostizieren. In einem zweiten Ansatz A2 sind dieselben Zeitreihen mittels eines in dieser Arbeit entwickelten Case-Based Reasoning-Systems zu verarbeiten. Hierfür ist eine Wissensbasis in das System implementiert, welche bereits für andere Zeitreihen berechnete Modelle beinhaltet. Ziel des Systems ist es, die Prognosen mittels der Modelle aus der Wissensbasis durchzuführen, statt neue Modelle zu berechnen; dies ist die angestrebte Einsparung des Rechenaufwands. Es ist zu evaluieren, ob A2 die Einsparung unter Beibehaltung der aus A1 bekannten Prognosequalität erreicht. Mithilfe quantitativer Experimente ist festzustellen, dass dies gelingt; A2 spart signifikant Rechenaufwand gegenüber A1 bei Beibehaltung der Prognosequalität ein.



Genath, Jonas;
Scagnostics mittels Deep Learning. - Ilmenau. - 102 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die vorliegende Arbeit beschäftigt sich mit dem Problem, dass bei der visuellen Analyse auftritt, wenn im Kontext des Data Farmings eine Analyse auf Basis von Scatterplots oder Scatterplot Matrizen bei einer hohen Anzahl an Variablen aufgrund der Übersichtlichkeit nur schwer durchzuführen ist. Um dieses Problem zu lösen werden in dieser Arbeit zwei Methoden betrachtet und verglichen, um die zu beobachtende Anzahl an Scatterplots auf die Relevanten zu reduzieren. Die Implementierung der Methoden erfolgt durch einen Deep Learning Algorithmus. Zum Einen werden neun Kennzahlen zur Erkennung von relevanten Mustern in Scatterplots zum Anderen die Rastergrafiken der Scatterplots als Eingabe für die künstlichen neuronalen Netzwerke (KNN) verwendet. Zuerst wird ein aus drei Phasen bestehendes Gesamtkonzept entwickelt, welches die Vorgehensweise der Implementierung schrittweise darstellt. Da zum Training der KNN kein geeigneter Datensatz vorhanden ist, wird ein Datensatz auf Basis der Datensynthese generiert. Dafür werden sieben Merkmale in Scatterplots definiert und ein für diese Merkmale repräsentativer Datensatz erzeugt. Von diesem Datensatz ausgehend, werden die neun Kennzahlen berechnet und ein Fully-connected Neural Network wird auf die Mustererkennung in Scatterplots trainiert. Das Training auf Basis der Rastergrafiken erfolgt mittels eines Convolutional Neural Network (CNN). Die Verbesserung der Hyperparameter der beiden KNN erfolgt mithilfe eines entwickelten Bergsteigeralgorithmus. Das Ergebnis dieser Arbeit ist, dass die beiden entwickelten KNN eine Klassifizierungsgenauigkeit von 99% auf die Trainings- und Validierungsdaten erreichen. Wird ein unbekannter Testdatensatz zur Filterung der relevanten Variablenbeziehungen verwendet, erreichen die KNN nur auf die im Vorhinein klar definierten Merkmale eine hohe korrekte Klassifizierungsrate. Mischformen oder unbekannte Muster werden unzuverlässig zugeordnet. Das CNN liefert in diesem Zusammenhang die etwas geeigneteren Ergebnisse. Das Fazit der Anwendung von KNN zur Filterung von Scatterplots ist, dass zur zuverlässigen und sinnvollen Filterung von unbekannten Daten ein umfangreicher mit korrekten Klassen versehender Trainingsdatensatz zugrunde liegen muss. Eine Eignung der Methoden zum Reduzieren von Scatterplots wird jedoch durch die hohe Klassifizierungsgenauigkeit auf die Trainingsdaten für sinnvoll erachtet.



Stand der Technik im Bereich modularer Fertigungssysteme und simulationsbasierter Vergleich mit klassischer Linienfertigung. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Unternehmen unterliegen der ständigen Veränderung ihrer Makro- und Branchenumwelt, deren Prognose sich als zunehmend schwieriger gestaltet. Um diesen erfolgreich zu begegnen ist eine flexible und wirtschaftliche Anpassung des Fertigungsunternehmen an die Nachfrage erforderlich. Am Beispiel der Automobilindustrie zeigen sich diese an unterschiedlichen, angebotenen Antriebsformen und einer Vielzahl von Ausstattungsmerkmalen. Die Automobilproduktion basiert dabei überwiegend auf der Linienfertigung, welche aufgrund der zuvor aufgezeigten Veränderungen zunehmend an ihre Einsatzgrenzen gerät. Neuen Fertigungsprinzipien sollen - zumindest bei gleichbleibender Produktivität - die nötige Flexibilität bieten, wobei eine Möglichkeit der Einsatz von modularen Fertigungssystemen darstellt. Eine Innovation stellt dabei die modulare Produktion dar, die im Rahmen der Arbeit näher untersucht wird. Dabei wird das Fließprinzip aufgehoben und eine Anordnung der Tätigkeiten, vergleichbar mit der Werkstattfertigung, gewählt. Diese Bereiche sind flexibel miteinander verbunden, wobei sich die Verbindungsart, manueller Gütertransport bis algorithmengesteuerte, fahrerlose Transportsysteme, je nach Ausprägung des modularen Fertigungssystems unterscheidet. Es ergibt sich die Fragestellung, nach der Vorteilhaftigkeit der jeweiligen Lösung, modulare Produktion oder Linienfertigung. Dazu wird im ersten Schritt die modulare Produktion von den bereits bekannten Arten modularer Fertigungssysteme abgegrenzt. Aufbauend auf die Untersuchung der Komponenten der modularen Produktion und einem theoretischen Vergleich mit der Linienfertigung, folgt die Realisierung beider Produktionssysteme in der Simulationsumgebung Plant Simulation. Die Arbeit schließt mit der Zusammenfassung der Ergebnisse ab.



Schlott, Annika;
Analyse essenzieller Erfolgsfaktoren für die Einführung von Predictive Maintenance. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Moderne Entwicklungen - wie Industrie 4.0, Internet of Things, Big Data, etc. - bieten zahlreiche Chancen zur Produktivitätssteigerung und Kostensenkung durch Anpassung der Instandhaltungsstrategie. Einer der neuesten Trends auf diesem Gebiet heißt Predictive Maintenance. Er basiert auf vorausschauenden Methoden, die mithilfe statistischer Verfahren und anhand von Maschinendaten eine Prognose über die Lebenserwartung von Komponenten erstellen. Damit kann die verbleibende Zeit bis zur nächsten notwendigen Wartung abgeschätzt und ein proaktives Handeln ermöglicht werden. Im Rahmen einer Masterarbeit sollten die ersten Schritte auf dem Weg zur Einführung dieses Trends bei KNV Logistik Erfurt an einem Regalbediengerät gegangen werden. Hierfür wurden mögliche Erfolgsfaktoren betrachtet und deren Umsetzung initialisiert. Als essenziell galten: Die Identifikation der für Predictive Maintenance relevanten Komponenten, die Speicherung von Daten, Expertenwissen auf dem Gebiet zustandsorientierter Instandhaltung sowie der Entwurf eines Prognosemodells und die Auswahl der effizientesten Mittel mithilfe einer Kostenanalyse. Besonderer Wert wurde auf die Erstellung des Modells gelegt, welche - aufgrund fehlender Daten - theoretisch untersucht werden musste.



Kraus, Maximilian;
Analyse und Vergleich betriebswirtschaftlicher Effizienzbewertungsverfahren im Kontext von Data Farming. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Im Rahmen dieser Masterarbeit wird zunächst eine Übersicht bestehender Effizienzbewertungsverfahren erstellt, von denen anschließend einige genauer miteinander verglichen werden. Ziel ist es, zu eruieren, welche der bekannten parametrischen und nicht-parametrischen Verfahren sich für eine Anwendung in einer realen betriebswirtschaftlichen Umgebung in Bezug auf durch Data Farming generierte sehr große Datenmengen eignen und zudem Mehrwert schöpfende Ergebnisse liefern können. Hierzu wird ein Datensatz bestehend aus 20.480 durchgeführten Simulationsexperimenten genutzt, um daran verschiedene Techniken zur Bewertung von Effizienz zu testen und deren Ergebnisse gegenüberzustellen. Anschließend werden diese hinsichtlich ihrer Vor- und Nachteile sowie ihrer Anwendbarkeit im Big-Data-Kontext untersucht, um allgemeingültige Aussagen über deren Praktikabilität im Einsatz eines realen Unternehmens zu treffen. Die Innovation bezüglich dieser Art der Anwendung ist dabei, die angewandten Verfahren nicht die Effizienz zwischen Unternehmen oder Abteilungen bewerten zu lassen, sondern einen Vergleich verschiedener Produktionsalternativen innerhalb einer einzigen Fertigungslinie zu ziehen, um so die die effizientesten Systemeinstellungen zu identifizieren. Durchgeführt wird hierfür eine Data Envelopment Analysis (DEA), das Operational Competitiveness Rating (OCRA) und die Technique for Order Preference by Similarity to Ideal Solution (TOPSIS), die in diesem Zusammenhang als die bekanntesten Verfahren gelten. Das Fazit der Untersuchung ist, dass sich - bedingt durch eine sinnvolle Vorauswahl der Methoden - theoretisch alle Verfahren für den Zweck dieser Studie eignen. Jedoch kann sich die TOPSIS aufgrund einiger Vorteile gegenüber den anderen Verfahren, wie einer leichteren Implementierung sowie einer höheren Transparenz der Ergebnisse, besonders auszeichnen und wird daher für eine Anwendung innerhalb einer realen betriebswirtschaftlichen Umgebung empfohlen.



Conrad, Florian;
Robustheitsoptimierung mittels Deep Learning. - Ilmenau. - 78 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Generative Adversarial Networks (GAN) sind ein vielversprechender, neuartiger Vertreter generativer Modelle im Kontext des Deep Learning. Ihre Funktion beruht auf einem spieltheoretischen Wettstreit zweier künstlicher neuronaler Netze mit dem Ziel, ein Nash-Gleichgewicht in deren Parameterraum zu finden. Die vorliegende Arbeit untersucht den Einsatz von GAN zur Erzeugung von Konfigurationen und Versuchsplänen für ein Modell der diskret-ereignisorientierten Simulation. Darauf aufbauend wird ein Konzept vorgestellt, welches diese für eine Robustheitsoptimierung nutzt. GAN können Versuchspläne generieren, die hinsichtlich Raumabdeckung reinem Random Sampling überlegen und vergleichbar mit einem einfachen Latin Hypercube Sampling sind. Allerdings ist es nicht möglich, orthogonale oder ausgewogene Pläne zu erzeugen. Ein GAN kann iterativ bessere Lösungen für ein Problem finden, indem es Beispiele generiert, die nach einer Bewertung an das GAN als nachzubildende Datenbasis zurückgegeben werden. Im Konzept wird dieses Prinzip für die Suche nach Konfigurationen im Faktorraum eines Simulationsmodells genutzt, die ein Robustheitsmaß maximieren. Parallel dazu werden durch ein weiteres GAN die Störgrößen des Modells im Sinne einer Minimie-rung der Robustheit angepasst. Somit können Konfigurationen identifiziert werden, die sich unter besonders schwierigen Umweltbedingungen bewähren. Verfahren des Ranking and Selection werden genutzt, um im Verlauf der Optimierung aus mehreren potentiellen Kandidaten den besten zu wählen. An einem Beispielmodell der diskret-ereignisorientierten Simulation kann gezeigt werden, dass dieses Vorgehen robustere Lösungen als die Taguchi-Methode oder die Response Surface Methode findet. Die praktische Umsetzung des Konzepts findet in TensorFlow und Tecnomatix Plant Simulation statt.



Hußke, Christian;
Anwendung von Data Farming auf Simulationsmodelle mit Routenzügen. - Ilmenau. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Tourenplanung gilt als eines der zentralen Problemfelder der Logistik. Dabei soll die bestmögliche Route, unter anderem gemessen an der Weglänge, für den Transport von unterschiedlichen Gütern zwischen einer Quelle und mehreren Senken ermittelt werden. Für die innerbetriebliche Versorgung von Stationen mit Materialien werden oftmals die sogenannten Routenzüge als Transportfahrzeuge eingesetzt. Das Ziel dieser Masterarbeit bestand darin, die Anwendungsmöglichkeit von Data Farming auf Simulationsmodelle mit Routenzügen zu überprüfen. Das Ziel des Data Farmings besteht in der Abbildung gänzlicher Verhaltensmöglichkeiten eines Systems und könnte somit zur Lösung des innerbetrieblichen Tourenplanungsproblems herangezogen werden. Zur Überprüfung dieser These wurden zwei Konzeptvarianten entwickelt, die eine Verbindung zwischen der Routenzugproblematik und der Data-Farming-Methode schaffen. Dabei besitzt jedes Konzept individuelle Vor- und Nachteile, weshalb die Wahl einer Variante durch den individuellen Anwendungszweck des Nutzers bestimmt wird. Eine dieser Varianten wurde anschließend prototypisch in ein Simulationsmodell integriert, welches einen fiktiven Industriebetrieb abbildet. Die Simulationsergebnisse wurden abschließend unter Zuhilfenahme geeigneter Graphiken analysiert.



Baumeister, Victor;
Best-Practice-Modell zur Erstellung eines Digitalen Zwillings aus einem Simulationsmodell der Fabrikplanung. - Ilmenau. - 119 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Das Ziel dieser Masterarbeit ist die Erstellung eines Best-Practice-Modells mit dessen Hilfe ein Digitaler Zwilling für ein Produktionssystem mittels einer Simulationssoftware ermöglicht werden soll. Dabei erfolgt eine Betrachtung von organisatorischen und technischen Aspekten im Best-Practice-Modell. Die organisatorischen Aspekte beschäftigten sich mit der Zusammenarbeit von unterschiedlichen Fachbereichen für die Querschnittsaufgabe der Entwicklung eines Digitalen Zwillings. Der technische Teilaspekt thematisiert zunächst die Herstellung der Interoperabilität zwischen Simulationswerkzeug und Betriebsdatenerfassung. Darauf aufbauend wird ein systematischer Ablauf vorgegeben, wie die Informationen der Datenerfassung im Simulationswerkzeug anschaulich dargestellt werden können. Dies soll eine Echtzeitdarstellung des Produktionssystems und die Möglichkeit zur Simulation auf Basis der Echtzeitdaten erlauben. Bei der Anwendung des Best-Practice-Modells auf ein Praxisbeispiel bei der Robert Bosch Fahrzeugelektrik Eisenach GmbH hat sich gezeigt, dass eine Echtzeitdarstellung eines Produktionssystems ermöglicht werden kann. Dabei ist eine gute Übertragbarkeit auf unterschiedliche Anwendungen des Best-Practice-Modells durch den organisatorischen Leitfaden und die prototypischen Methodenbausteine für Tecnomatix Plant Simu-ation gegeben. Dieser erlaubt es, verschiedene Alternativen zur Ausbringungssteigerung zu quantifizieren und auf dieser Basis eine Handlungsempfehlung zur Steigerung der Produktionseffizienz auszusprechen. Der Entwurf des Best-Practice-Modells erfolgt anhand eines Vorgehensmodells. Dabei wird zunächst der Ist-Zustand analysiert. Darauf aufbauend findet die Erstellung des Best-Practice-Modells für Organisation und Technik statt. Die Implementierung des technischen Best-Practice-Modells in Tecnomatix Plant Simulation wird durch prototypische Methodenbausteine erreicht. In der Installierungsphase erfolgt eine Anwendung unter Nutzung der Methodenbausteine mittels Tecnomatix Plant Simulation an einer Produktionslinie der Robert Bosch Fahrzeugelektrik Eisenach GmbH.



Wörrlein, Benjamin;
Hybride Simulation zur realitätsnahen Abbildung von Energieströmen : Kombination von Materialflusssimulation und maschinellem Lernen. - Ilmenau. - 117 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Moderne Produktionsunternehmen müssen im Kontext der Energiewende sich auf veränderte Marktverhältnisse innerhalb des Energiemarktes einstellen. Diese sind durch eine höhere Volatilität der Verfügbarkeit und daher auch der Kosten von Energien geprägt. Könnte ein Unternehmen vor Abruf seines Energiebedarfs diesen realitätsnah ermitteln und an sein Versorgungsunternehmen weitergeben, so würde dies in fallende Beschaffungskosten resultieren. Um Voraussagen über das dynamische Verhalten einer Organisation zu treffen, werden Methoden der Simulation angewandt. Die Qualität der aus Simulation erzeugten Erkenntnisse nimmt gemeinhin mit einer erhöhten Modellkomplexität und Datenlage zu. Desto komplexer sich eine Simulationsumgebung darstellt, desto höher ist der Aufwand diese mit klassischen Methoden des gewählten Simulationsparadigmas darzustellen. Ziel dieser Arbeit war es die Grenzen der Modellierung einer solchen realitätsnahen Systems anhand des Bedienraums einer Werkzeugmaschine aufzuzeigen, und einen Vorschlag einer alternativen Modellierung über hybride Simulationsansätze zu liefern. Hierfür wurde einmal der Vorschlag einer ereignisdiskreten Modellierung einer Werkzeugmaschine geschaffen, welche eine Simulation des zeitlichen Verlaufs des Energieverbrauchs darstellt und den Aufwand für ebenso eine Erstellung charakterisiert. Die Anforderungen an das diskret ereignisorientierte Modell wurden mit möglichen alternativen Modellen des maschinellen Lernens abgeglichen. Hierbei wurde eine RNN-Encoder-Decoder-Architektur identifiziert, welche bei Eingabe einer Verhaltensbeschreibung des Bedienraums, als Ausgabe eine diskrete Zeitreihe hatte. Diese diskrete Zeitreihe stellt den Energieverbrauch der Werkzeugmaschine für jeden Fertigungsauftrag dar. Das Modell der diskret ereignisorientierten Simulation wurde mit dem Modell der RNN-Encoder-Decoder-Architektur kombiniert, um eine ganzheitliche Beschreibung der Energieverbrauchszeiten simulieren zu können. Bei dem entstandenen Simulationsmodell handelt es sich um ein Modell der diskret ereignisorientierten Weltsicht, welches beim Durchlauf eines Fertigungsauftrags durch den Spanraum (Bedienraum) einer Werkzeugmaschine, ein zuvor gewichtetes rekurrentes, neuronales Netz und den vektorisierten NC-Code des spezifischen Fertigungsauftrags einlädt. Dieses RNN wird bei Simulationslauf aktiviert und hat als Ausgabe die zeitliche Länge des Fertigungsauftrages und eine Zeitreihe des kontinuierlichen Energieverbrauchs des Fertigungsauftrags.



Verbesserung von Experimentdesigns zur streambasierten Analyse von Simulationsmodellen. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die zunehmende Komplexität von Produktions- und Logistiksystemen erweitert stetig die Anforderungen an die Industrie. Zusätzlich steigen die Rechenleistungen kontinuierlich und die Verfügbarkeit von Big Data Infrastrukturen nimmt ebenfalls zu. Aus einer Weiterentwicklung der Computersimulation entstand zunächst das Data Farming und Data Mining. Der nächste Entwicklungsschritt war das sogenannte streambasierte Data Mining. Der Vorteil des streambasierten Data Minings ist die sofortige Verfügbarkeit von Daten. Hier setzt diese Masterarbeit an. Ziel ist es durch Modifizieren der Experimentpläne die frühe Verfügbarkeit von auswertbaren Daten zu verbessern. Es geht hierbei um die genaue Untersuchung des Einflusses von Modifikationsverfahren für Experimentpläne. Betrachtet werden hier die Einflüsse von Replikationen Randomisierung und Blockbildung auf das vollfaktorielle Experimentdesign und das auf Nearly Orthognal Latin Hypercubes (NOLH) basierende Experimentdesign.



Anwendung des Konzepts der symbiotischen Simulation in modernen Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Die vorliegende Arbeit beschäftigt sich mit der Erarbeitung eines Konzepts das es ermöglicht, das erläuterte Grundgerüst der symbiotischen Simulation für die kontinuierliche Überwachung eines modernen Produktionssystems nutzen zu können. Es wird von einer Symbiose gesprochen, wenn Organismen in einer Wechselbeziehung leben, von der alle beteiligten Organismen profitieren. Mit den Daten aus dem Realsystem, kann das simulierte System initialisiert werden und die Genauigkeit der Simulation wird erhöht. Aus den aus der Simulation gewonnenen Daten, können wiederum Entscheidungshilfen für das Realsystem abgeleitet werden. Das in dieser Arbeit entwickelt Konzept basiert auf der Simulation von Störungen in einem Produktionssystem, um so ihren Einfluss auf den Nutzungsgrad bestimmen zu können. Durch die so generierten Informationen werden die Werker an der Linie bei der Priorisierung von Störungen unterstützt. Für die Evaluierung des Konzepts wurde eine Fallstudie durchführt. Als Fallstudie diente eine beispielhafte Fertigungslinie bei der Bosch GmbH in Ansbach. Bei dieser Fertigungslinie handelt es sich um eine vollautomatisierte Linie für die SMD-Bestückung von Leiterplatten. Von dieser Linie wurde zunächst mit Hilfe der Simulationssoftware Plant Simulation ein ereignisbasiertes Simulationsmodell erstellt. Anschließend wurde mittels der Programmiersprache Python ein Schnittstellenmodul entwickelt, das den zyklischen Datenaustausch zwischen Simulation und Realsystem ermöglicht.



Phi, Phuc Trong;
Simulation von Produktionsprozessen unter Einsatz einer hybriden Simulation mit künstlichen neuronalen Netzen. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

In Zeiten steigender Komplexität der Produkte und deren Produktionssysteme sowie wachsenden Anforderungen an Qualität, Flexibilität und Kosten, wird das Streben nach mehr Effizienz in den Produktionsbetrieben immer größer. Die Simulation stellt dabei ein probates Werkzeug in der Planung und Optimierung von Produktionssystemen und Logistik-Netzwerken zu Lieferanten, Produktionsstätten und Distributionsstandorten dar. Simulationsmodelle können genaue Abschätzungen über das Verhalten eines Produktionssystems ermöglichen, welche jedoch mit steigendem Komplexitätsgrad des Produktionssystems einen höheren Aufwand in der Modellierung und eine längere Berechnungsdauer nach sich ziehen. Ein Ansatz zur Minimierung des Modellierungsaufwandes beschäftigt sich mit der Kopplung eines externen künstlichen neuronalen Netzes mit einer klassischen Simulation. Der grundlegende Vorteil dieser künstlichen neuronalen Netze besteht darin, im Vergleich zu den existierenden statistischen Ansätzen bessere Ergebnisse für komplexe Probleme liefern zu können. Angesichts dieser Fähigkeit untersucht diese Arbeit die Anwendbarkeit von künstlichen neuronalen Netzen in hybriden Simulationen von Produktionssystemen. Dabei soll das künstliche neuronale Netz die Prognose des Verhaltens von ausgewählten Teilen eines Produktionssystems in einer Simulation übernehmen. Auf Basis dieser Funktion soll hierfür ein Prototyp entwickelt werden, an dem mehrere Simulationsexperimente durchgeführt werden können, um den Einsatz von künstlichen neuronalen Netzen in der hybriden Simulation kritisch bewerten zu können. Die Ergebnisse zeigen, dass die Netze in der Lage sind, eine passable Prognose innerhalb des Rahmens des Trainingssatzes abzugeben. Jedoch versagen sie in der Prognose von unbekannten Werten, wodurch ihr eigentlicher Charakter der Generalisierungsfähigkeit ihnen abhandenkommt. Ebenso ist festzustellen, dass die Qualität der Netzprognosen sehr stark von den Trainingsdaten abhängt. Eine falsche Wahl von Input- und Outputdaten, die das Verhalten der Entitätengruppe im Produktionssystem beschreiben sollen, führt auch zu einer fehlerhaften Prognose dieses Verhaltens.



Rückbrod, Martina;
Eignung kombinierter Simulation für die Abbildung energetischer Aspekte in der Simulation von Produktionssystemen. - Ilmenau. - 79 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Vor dem Hintergrund steigender Energiepreise gewinnt die bewusste und nachhaltige Ressourcenverwendung des Produktionsfaktors Energie an Bedeutung. Für eine bessere Bewertung der Energieeffizienz sind neben der Simulation von Materialflüssen der Produktionssysteme auch Energieflüsse einzubeziehen. Eine rein diskrete Simulation bildet statusbasierte Prozesse sowie über einen Zeitraum konstante Maschinen- und parallele Energiezustände ab. Diese Methode sei aufgrund mangelnder Genauigkeit und Realitätsnähe nicht mehr zeitgemäß und wird von vielen Forschern kritisiert. Diese bevorzugen eine kombinierte Simulation, die den Materialfluss weiterhin diskret, den Energiefluss dagegen kontinuierlich, dynamisch und somit präziser simuliert. Die kombinierte Simulation vereint das diskrete und das kontinuierliche Modell und ermöglicht Wechselwirkungen zwischen beiden Modellen. Ziel der Arbeit ist es, die Hypothese der (besseren) Eignung der kombinierten Simulation für die Abbildung energetischer Aspekte in der Simulation von Produktionssystemen zu eruieren. Dazu wird zunächst der State-of-the-Art der kombinierten Simulation und geeigneter Simulatoren aufgezeigt. Anschließend wird ein Referenzmodell entwickelt und modellorientierte Maßnahmen zur Energieeffizienzsteigerung beschrieben. Dieses Anwendungsbeispiel wird für einen Simulationsvergleich mithilfe von AnyLogic in verschiedenen Szenarien einerseits in rein diskreter Simulation und andererseits in kombinierter Simulation umgesetzt. Die Evaluierung der Ergebnisse zeigt, dass diese Hypothese nicht ausnahmslos bestätigt werden kann, da die diskrete Simulation unter gewissen Bedingungen (z. B. wenn sich nur leistungskonstante Maschinen in der Produktionslinie befinden) bzw. bei bestimmten Simulationszwecken (z. B. wenn der Fokus auf Durchschnittswerten liegt) ebenfalls zielführend und vorteilhaft sein kann. Die bessere Eignung der kombinierten oder der diskreten Simulation hängt von mehreren Faktoren ab und ist daher bei jeder Simulationsabsicht erneut abzuwägen. Es wird jedoch deutlich, dass sich die kombinierte Simulation durch eine präzisere und wahrheitsgetreuere Abbildung von insbesondere der Leistung/des Leistungsverlaufs kennzeichnet und somit in der Praxis oft nutzbringender ist.



Haluch, Oliver;
Techniken der Visualisierung von Big Data zur Verbesserung intuitiv-kognitiver Wissensexploration in Simulationsdaten. - Ilmenau. - 81 Seiten
Technische Universität Ilmenau, Masterarbeit 2018

Visual Analytics vereinen computergestützte Algorithmen mit den kognitiven Fähigkeiten des Menschen zur intuitiven Entdeckung von Wissen anhand ausdrucksstarker Visualisierungen. Bei Simulationsdaten stört jedoch die Masse an Datenpunkten in der Repräsentation die Einbindung der menschlichen Wahrnehmung durch ein Auftreten von Visual Clutter. Daher sind Techniken gefragt, mit deren Unterstützung die Expressivität einer Visualisierung hochdimensionaler Daten wieder zurückerlangt werden kann. Der Visualisierungsprozess integriert dazu Techniken zur Transformation von Daten, deren Abstraktion in geometrische Strukturen sowie die Übertragung der Information in Ansichten. Die Arbeit systematisiert neben Techniken für die drei Stufen des Visualisierungsprozesses auch die grundlegenden Prinzipien der Enkodierung von Information über visuelle Variablen und erarbeitet die wichtige Rolle der menschlichen Interaktion mit einem Visualisierungssystem, um die visuelle Übersättigung wieder beherrschbar zu machen. Ein Prototyp soll außerdem ausgewählte Visualisierungstechniken zur Exploration von Simulationsdaten vorführen.



Stürzekarn, Dominik;
Expertensysteme zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen am Beispiel von Smart Home. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Expertensysteme sind spezielle interaktive wissensbasierte Systeme, die Expertenwissen im Dialog mit Anwendern abbilden und unter Beachtung von Regeln für Schlussfolgerungen und Problemlösungen verwenden. Expertensysteme können, wie die vorliegende Arbeit zeigt, im Kontext komplexer Investitionsentscheidungen äußerst nützlich sein. Denn sie sind in der Lage, komplexe Investitionsmöglichkeiten auf verschiedenen Märkten zu analysieren und zu normieren, und unter Berücksichtigung der individuellen Situation des Endnutzers Investitionsempfehlungen zu treffen. Unter Rückgriff auf einschlägige Literatur wird ein Konzept zur Erstellung eines Expertensystems zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen entwickelt. Es besteht im Wesentlichen aus den vier Phasen Systemkonzeption, Wissenserhebung, Implementierung und Wartung. Dieses Konzept wird anhand eines Expertensystems für komplexe Investitionsentscheidungen im Bereich Smart Home validiert. Smart Homes sind Wohnstätten, die durch den gezielten Einsatz netzwerktauglicher Informations- und Regelungstechnologien bestimmte Bedürfnisse ihrer Bewohner erfassen können und diese mit internen Regelungsmechanismen sowie durch Kommunikation mit der Außenwelt möglichst eigenständig erfüllen. Das SmartHomeConsultant (SHC) genannte Expertensystem wird mit den Entwicklungswerkzeugen Microsoft Excel und Word (Konzipierung der Wissensbasis) und der Expertensystemshell KnowWE/d3web (formaler Aufbau der Wissensbasis und Inferenzkomponente) selbstständig erstellt. Der SmartHomeConsultant erfüllt alle Anforderungen an ein Expertensystem im Kontext komplexer Investitionsentscheidungen und kann daher als Prototyp eines Expertensystems zur Entscheidungsunterstützung im Kontext komplexer Investitionsentscheidungen betrachtet werden.



Hensengerth, Roland;
Data Farming für Produktsequenzen im Kontext der Fertigungssimulation. - Ilmenau. - 94 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Ziel dieser Arbeit ist es, einen Ansatz zu entwickeln, mit welchem die grundsätzlichen Auswirkungen von Produktsequenzen auf Ergebnisgrößen im Kontext der Fertigungssimulation untersucht werden können. Dabei soll eine aus dem Data Farming bekannte generalisierte Sichtweise angenommen werden. Nach einer umfassenden Literaturanalyse werden zunächst Produktsequenzen als Folgen von Produkten, welche verschiedene Produkttypen aufweisen können, definiert. Für die Erstellung dieser wird ein Baumalgorithmus vorgestellt, welcher Sequenzen minimaler Länge zurückgibt, die anschließend zu einer Gesamtsequenz zusammengefügt werden können. Im Rahmen des Experimentdesigns für Produktsequenzen werden Nachteile des Algorithmus ausgeglichen. Als messbare Ergebnisgrößen werden Ereignisse definiert, die während des Simulationslaufs von bestimmten Produktsequenzen ausgelöst werden können. Dabei ist es sinnvoll, je nach Ereignistyp ein Gegenereignis zu definieren, wodurch dann Ereignispaare entstehen. Mittels einer geeigneten Sequenz- und Ereignismessung werden Datenstrukturen erstellt, die mit Sequential Pattern Mining Algorithmen zum Auffinden von häufigen Sequenzen verarbeitet werden können. Mit einem Streudiagramm und einer tabellarischen Darstellung werden zwei Visualisierungsmethoden vorgestellt, welche sich zur anschließenden Auswertung eignen. Außerdem wird die Validierung der Ergebnisse mittels eines Simulationsmodells eingegangen. Als geeignete Datenbankmanagementsysteme zur Speicherung erweisen sich NoSQL Systeme. Zur Überprüfung des Konzeptes wird dieses im Anschluss prototypisch implementiert. Anhand von zwei akademischen Anwendungsbeispielen wird aufgezeigt, dass mit Hilfe des Ansatzes interessante Ursache-Wirkungs-Zusammenhänge zwischen Produktsequenzen und Ergebnisgrößen ermittelt werden können.



Cely Hernandez, Daniela Rocio;
Metamodellierung von Simulationsmodellen. - Ilmenau. - 82 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Technische Systeme zeichnen sich durch eine hohe Komplexität aus, weil sie zeit- und zufallsabhängige Systemgrößen oder vernetzte Wirkungszusammenhänge beinhalten. Nicht selten werden statt mathematischer bzw. analytischer Methoden Simulationsmodelle verwendet, um das betrachtete System über Simulationsexperimente zu studieren und zu evaluieren. Wenn ein Simulationsmodell sehr komplex ist, kann der Rechenaufwand zum Ausführen der Experimente erheblich sein. Außerdem erschwert sich die Analyse und Interpretation der Simulationsergebnisse. In diesem Fall bietet ein Metamodell Vorteile, weil es die Approximation von Input-Output-Verhältnissen auf der Basis der aus der Simulation erlangten Daten erlaubt. Dies bietet die Möglichkeit, Simulationsergebnisse zu prognostizieren und zu optimieren. Angesichts dieses Potentials befasst sich diese Arbeit mit den Grundprinzipen der Metamodellierung und mit der Charakterisierung gängiger Methoden, wie das Kriging-Verfahren, die Spline-Regression, die Support-Vector-Machine, die polynomiale Regression, die radiale Basisfunktion, das künstliche neuronale Netz und der Entscheidungsbaum. Hierfür wurde auf die mathematischen Grundlagen, Lösungsverfahren, Vorteile, Nachteile und Anwendungsbeispiele eingegangen. Die letzten vier Methoden wurden mit Hilfe einer prototypischen Umsetzung anhand von Kriterien, wie die Genauigkeit, Robustheit und Effizienz, miteinander verglichen. Hierbei stellte sich heraus, dass die polynomiale Regression den geringsten Fehler (RAAE) bei der Abbildung linearer Zusammenhänge aufweist. Für die Abbildung einer Nichtlinearität hat hingegen das künstliche neuronale Netz den niedrigsten Fehler erzeugt. Außerdem hat sich die Methode des Entscheidungsbaumes als robust erwiesen, weil sie mit der geringsten Standardabweichung verschiedene Simulationsmodelle abgebildet hat. Die Ergebnisse dieser Arbeit bestätigen die Nützlichkeit einer Metamodellierung im Sinne der Zeitlaufreduzierung. Während der Aufbau eines Metamodells und die Prognose von Simulationsergebnissen Millisekunden dauert, ist die Laufzeit von der gleichen Zahl an Simulationsexperimenten mindestens tausend mal größer. Bei dem künstlichen neuronalen Netz und der radialen Basisfunktion hat der Aufbau des Metamodells und die Prognose von Simulationsergebnissen vergleichsweise mehr Zeit im Anspruch genommen als die polynomiale Regression und der Entscheidungsbaum.



Breitsprecher, Oskar;
Vergleich verschiedener Zeitfortschrittsverfahren in der verteilten Simulation. - Ilmenau. - 88 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Die vorliegende Masterarbeit stellt einen Vergleich grundlegender Synchronisations-verfahren der verteilten Simulation vor. Dazu werden zunächst konservative, optimistische und hybride Verfahren auf algorithmischer Ebene vorgestellt und miteinander verglichen. Im Anschluss werden zwei Referenzmodelle mit der Simulationssprache SLX entwickelt. Dabei stellt ein Referenzmodell eine Umsetzung des Phold Modells nach Fujimoto dar. Mittels einer SLX-HLA Schnittstelle nach Straßburger und einer HLA RTI werden die Implementierungen der Referenzmodelle anschließend verteilt ausgeführt. Hierzu werden vorhandene Implementierungen eines konservativen und eines optimistischen Synchronisationsverfahrens in einem Praxistest gegenübergestellt. Um die Vor- und Nachteile der jeweiligen Synchronisationsmethoden zu identifizieren, werden modellspezifische und modell-unabhängige Parameter wie der Lookaheadwert in unterschiedlichsten Konstellationen getestet und dass Verhalten der Synchronisations-verfahren auf Änderungen der Ausprägungen dieser Parameter analysiert.



Phan, Hoang Ha;
Adaption von Simulationsmodellen - Entwicklung eines Basisframeworks und Test anhand eines konkreten Adaptionsverfahrens. - Ilmenau. - 87 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Zur Erhaltung der Wettbewerbsfähigkeit müssen produzierende Unternehmen heute fähig sein, die aufgrund von gestiegenen Kundenanforderungen zunehmende Variantenvielfalt und die sich daraus ergebende Turbulenz und Komplexität in modernen Produktionssystemen beherrschbar zu machen. Hierzu empfiehlt es sich, Simulationsmodelle im Rahmen der Produktionsplanung und -steuerung zur kurz- und mittelfristigen Entscheidungsunterstützung einzusetzen. Mit der computergestützten Simulation lassen sich Produktionssysteme abbilden, sodass zukünftige Ereignisse mittels Was-wäre-wenn-Analysen prognostiziert und darauf basierend adäquate Planungs- und Steuerungsstrategien entwickelt werden können. Da die realen Fertigungsprozesse und -parameter sich über die Zeit verändern, müssen Simulationsmodelle ständig aktualisiert bzw. adaptiert werden, damit eine realitätsgetreue Abbildung sichergestellt werden kann. Hierbei entsteht ein ständiger Betreuungs- und Pflegeaufwand, der durch die vollständige oder zumindest teilweise Automatisierung des Modelladaptionsprozesses reduziert werden kann. In modernen Produktionssystemen werden sämtliche prozessbezogenen Daten digital aufgezeichnet, wie etwa im Rahmen der Betriebsdatenerfassung (BDE), die zur (teil-)automatischen Modelladaption genutzt werden können. Vor diesem Hintergrund wurde in dieser Arbeit ein Basisframework konzipiert und dessen Grundkomponenten prototypisch entwickelt, sodass damit das Testen verschiedener Adaptionsverfahren ermöglicht wird. Zum Test der Verfahren werden Daten in einem Simulationsmodell (Emulation der Produktion) erzeugt, diese Daten in einem als C#-WPF-Anwendung implementiertes Adaptionswerkzeug ausgewertet und auf Basis der Ergebnisse die vorab definierten Parameter eines weiteren Simulationsmodells mit Hilfe einfacher Adaptionsverfahren adaptiert.



Heimann, Maximilian;
Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Masterarbeit 2017

Mit dem Thema Text Mining für die Analyse von Trends in wissenschaftlichen Publikationen soll ein systematischer Vergleich der Text Mining Verfahren vorgenommen werden, um so eine Aussage über deren Eignung für die Analyse von Trends in wissenschaftlichen Publikationen zu treffen. Dazu wird im ersten Schritt ein allgemeiner Überblick über die Grundlagen des Text Mining gegeben. Dieser Überblick umfasst wichtige Begriffe, Eigenschaften des Text Mining, das Vorgehensmodell sowie eine Erläuterung der verschiedenen Text Mining Verfahren. Im zweiten Schritt wird ein Kriterienkatalog aufgestellt, anhand dessen die einzelnen Verfahren bewertet werden sollen. Zusätzlich erfolgt eine Gewichtung der verschiedenen Kriterien. Bevor die einzelnen Verfahren getestet werden, wird der Untersuchungsgegenstand näher beschrieben. Die einzelnen Tests der verschiedenen Verfahren werden mit Hilfe unterschiedlicher Text Mining Werkzeuge durchgeführt und auf Basis der Beobachtungen innerhalb des Tests wird eine Bewertung der einzelnen Kriterien vorgenommen. Für jedes Verfahren wird eine Gesamtbewertung aus den einzelnen Kriterien ermittelt, um anhand dieser ein Ranking der Verfahren nach deren Eignung zur Ermittlung von Trends aufzustellen. Abschließend wird ein Resümee für die Thematik gezogen. Hierbei wird ein Ausblick auf die zukünftige Entwicklung des Text Mining gegeben sowie eine abschließende Aussage über die Eignung des Text Mining für die Anwendung auf wissenschaftliche Publikationen aus den Ergebnissen des praktischen Teils der Arbeit getroffen.



Gelbrich, Patrick;
Dynamisches Erzeugen von Entscheidungsbäumen für die Simulationsdatenanalyse. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Im Rahmen der Produktionssimulation spielt unter dem Aspekt der Gewinnmaximierung die effiziente Ausnutzung der zur Verfügung stehenden Ressourcen eine wichtige Rolle. Dabei liegt die Schwierigkeit darin, das dynamische Verhalten von komplexen Produktionssystemen korrekt analysieren und bewerten zu können. Mit dem Ziel der Optimierung von Fertigungsanlagen wird häufig die bewährte und anerkannte Methode der diskretereignisgesteuerten Simulation eingesetzt. Ziel dieser Arbeit ist die Entwicklung eines Konzeptes zur Nutzung von Entscheidungsbaumverfahren zur Simulationsdatenanalyse. Bei der Ausführung der Simulationsexperimente ist darauf zu achten, dass ein möglichst großes Spektrum an Eingangsparameterkombinationen getestet werden kann. Zur Aufdeckung der Beziehungen der Eingangsparameter auf verschiedene Ergebnisparameter bei der Simulation des Produktionssystems kommen dynamische Entscheidungsbaumverfahren zum Einsatz, welche noch nicht in Bezug auf die Analyse von Simulationsdaten eingesetzt wurden. Diese Verfahren haben sich bereits in vielen Aspekten zur Klassifikation von Datenströmen im Bereich des Stream Minings bewährt. Insbesondere der inkrementelle Hoeffding-Baum, beziehungsweise der Very Fast Decision Tree werden auf die Eignung von streamingbasierter Eingabe von Simulationsdatensätzen untersucht. Durch die Struktur der erstellten Entscheidungsbaummodelle können hierbei die Beziehungen der Eingangsparameter zu den Ergebnisdaten der Simulation untersucht werden.



Bartz, Clemens;
Untersuchung logistischer Kennzahlen zur Bewertung operativer Planungsentscheidungen unter Anwendung einer MRP-Cockpit-Lösung. - 69 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Bei der Bewertung kurzfristiger Planungsentscheidungen werden Disponenten nicht hinreichend unterstützt. Bisherige Systeme visualisieren mögliche Unter- und Überdeckungen und können Alternativvorschläge unterbreiten. Eine Bewertung findet nur unter einfachen Gesichtspunkten statt. In der Arbeit wird ein auf einer Literaturanalyse sowie Expertenwissen basiertes Kennzahlensystem entwickelt, welches zur Entscheidungsunterstützung angewendet werden kann. Die Umsetzbarkeit wird prototypisch an einem SAP S4 HANA getestet.



Eisenhauer, Jana;
Erweiterung der statischen Wertstromanalyse durch Simulationsbausteine an einem Beispiel aus der Automobilzulieferindustrie. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

In den vergangenen Jahren hat sich die Wertstromanalyse zunehmend als Methodik zur gesamtheitlichen Abstimmung und Verbesserung der Prozesskette durchgesetzt. Durch die Visualisierung von Informations- und Materialflüssen werden Verschwendung und Verbesserungspotentiale aufgezeigt. Ausgehend von diesen Ansatzpunkten können dann zielgerichtet Maßnahmen zur Verbesserung abgeleitet werden. Häufigster Kritikpunkt der Methodik ist jedoch die Vernachlässigung der Dimension Zeit. Die Betrachtungen basieren auf Durchschnittswerten, wodurch Extremwerte und stochastische Verteilungen unberücksichtigt bleiben. Aus diesem Grund wurden in letzter Zeit vermehrt Beiträge publiziert, die eine Kombination der Wertstromanalyse mit Simulationskomponenten thematisieren. Die Ausarbeitung zeigt die verschiedenen Methoden einer solchen dynamischen Wertstromanalyse auf und stellt sie vergleichend gegenüber. Zudem wird ein Integrationsansatz der dynamischen Wertstromanalyse in die Abläufe der statischen Wertstromanalyse vorgestellt. Anhand dieser erarbeiteten Vorgehensweise werden zwei ausgewählte Methoden auf einen realen Wertstrom der Automobilzulieferindustrie angewendet. Die beiden untersuchten Methoden werden anhand ausgewählter Kriterien gegenübergestellt und bewertet. Abschließend werden Einflussfaktoren auf den Nutzen sowie den Aufwand der dynamischen Wertstromanalyse im betrieblichen Umfeld vorgestellt und erläutert, sowie Herausforderungen hinsichtlich der Akzeptanz der Methodik aufgezeigt.



Ponischil, Sonja;
Visual Analytics in der Simulationsdatenanalyse. - 86 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Mit zunehmendem technischem Fortschritt im Bereich von Speicher- und Rechenkapazitäten werden die Informations- und Datenmengen steigen. Die vergleichsweise geringer wachsende Fähigkeit, diese Datenvolumen zu analysieren, wird in der Zukunft zu einem Problem führen. Um dieser Herausforderung zu entgegnen, entwickelte sich das interdisziplinäre Forschungsgebiet der Visual Analytics, das den Prozess des Datenmanagements bis hin zur Visualisierung und Entscheidungsfindung durch die Integration des Menschen umfasst. Folglich stellt Visual Analytics eine Kombination aus automatischer und visueller Analyse, bestehend aus Methoden der automatischen Datenanalyse sowie Methoden der visuellen Darstellung und Interaktion des Menschen, dar. Diese Arbeit zeigt anhand eines qualitativen Literaturreviews den aktuellen Stand der Forschung im Bereich der Visual Analytics Methoden auf und gibt einen Überblick über die verschiedenen Begrifflichkeiten und die Methoden dieses Forschungsbereichs. Zudem werden die recherchierten Visual Analytics Methoden dahin gehend überprüft, ob und in welcher Form diese für die Analyse von Simulationsdaten geeignet sind. Diese Arbeit beschränkt sich auf Ergebnisdaten diskret-ereignisgesteuerter Simulation von Produktionssystemen. Abschließend werden die Erkenntnisse aus der Beurteilung der Visual Analytics Methoden auf ein Testszenario übertragen, um die Ergebnisse praktisch zu veranschaulichen.



Albrecht, Jennifer;
Vergleich der Konzepte von Industrie 4.0 und der Digitalen Fabrik. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2016

Das Ziel der Arbeit war zum einen festzustellen, ob die beiden Konzepte Industrie 4.0 und Digitale Fabrik verglichen werden können, das wurde anhand der Definitionen, sowie anhand einer möglichen Eingrenzung der Konzepte versucht, die Ergebnisse dafür wurden den zwei großen Grundlagenkapitel entnommen. Das Ergebnis ist, dass ein direkter Vergleich nicht möglich ist. Da beide Konzepte nicht eindeutig voneinander abgegrenzt werden können und die Ebenen des Einsatzes der Konzepte nicht zusammenpassen. Da die digitale Fabrik eine reine virtuelle Betrachtung der Fabrik beinhaltet und die Smart Factory als Teil der Industrie 4.0, welcher vom Einsatzgebiet der Digitalen Fabrik am nächsten kommt, sich um die reale Produktion bemüht. Auch wenn das Bestreben der Digitalen Fabrik, sich der realen Produktion anzugleichen, zu erkennen ist und ebenso in der Zielstellung der Definition verankert ist, reicht das noch nicht aus für einen möglichen Vergleich. Deshalb wurde das Augenmerk auf die Fragen nach dem Nutzen der Digitalen Fabrik gelegt, sowie der notwendigen Weiterentwicklung der Digitalen Fabrik um Nutzen zu generieren. Dabei wurde festgestellt, dass die Digitale Fabrik auf einem sehr guten Weg ist, in die Industrie 4.0 integriert zu werden, da sie zum einen schon in der Praxis etabliert ist und ständig weiterentwickelt wird. Dadurch können entsprechende Kostenvorteile generiert werden, wie z. B. durch die Reduktion von Entwicklungs-, Einführungs- und Schulungskosten. Weiterentwicklungspotentiale wurden folgende Herausgearbeitet: Die digitale Fabrik sollte sich innerhalb der Industrie 4.0 immer näher an die reale Welt annähern. Indem z. B. die Materialflusssimulationen um eine ganzheitliche Sicht aller Ressourcen erweitert wird. Sinnvoll wäre auch, dass die Produktionsanlagen ihre eigenen Konstruktionsdaten, sowie virtuelle Modelle speichern, welche dann über Schnittstellen einfach in digitale Fabrikmodelle übertragen werden können um vollständiges Modell, mit Ist-Daten zu erhalten. Das wäre eine sinnvolle Kombination von Eingebetteten Systemen und der Digitalen Fabrik, wofür aber z. B. klar definierte Schnittstellen zwischen der realen Fabrik und den digitalen Modellen geschaffen werden müssen, sowie in ein Framework eingebettet und eine Industrie 4.0-tauglichen Fertigungsumgebung geschaffen werden. Aus der Planung und dem Einsatz kooperierender und teils autonomer Systeme ergeben sich ganz neue Herausforderungen für die digitale Fabrik, weil die Datenaufbereitung, -analyse und visualisierung überdacht werden müssen. So war sie bis jetzt für die Interaktion mit Planern erdacht und soll zukünftig auch M2M-Komunikation können. Weitere Entwicklungsfelder ergeben sich in Bezug auf die Interoperabilität und Echtzeitfähigkeit der Methoden und Werkzeuge durch die autonome Produktionssteuerung. Nicht alle Weiterentwicklungen sind notwendig für eine Integration aber über lange Sicht wünschenswert, damit die Digitale Fabrik, den Platz in der Industrie 4.0 bekommt, der ihren Möglichkeiten entspricht.



Walther, Robert;
Automatisierte Generierung von interaktiven 3D Animationen von Simulationsläufen im Webbrowser. - 100 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Simulation hat sich als effektives Werkzeug für die Handhabung und Untersuchung komplexer Systeme bewährt. Besonders im betrieblichen Umfeld kann Simulation dazu eingesetzt werden um zum Beispiel die Kosten zu reduzieren, die Prozessqualität zu verbessern und Produktentwicklungszyklen zu verkürzen. Die Ergebnisse von Simulationsläufen sind oft für verschiedenste Zielgruppen von Bedeutung. Diese reichen von der Schulung des Produktionsmitarbeiters bis hin zur Unterstützung der Entscheidungsfindung der Geschäftsleitung. Eine Herausforderung stellt dabei die kostengünstige, plattformunabhängige, schnelle und einfache Visualisierung und Verfügbarkeit der Daten von Simulationsläufen für die verschiedene Interessengruppen dar. Das World Wide Web und die zahlreichen Entwicklungen der letzten Jahre im Bereich der 3D Computergrafik bieten Möglichkeiten diese Herausforderungen zu lösen. An dieser Stelle knüpft die vorliegende Arbeit an. Nach Erläuterung der Grundlagen und Techniken aus dem Bereich der Visualisierung und 3D Computergrafik wird der Standard Core Manufacturing Simulation Data (CMSD) vorgestellt. Dieser Standard wird unter anderem für die automatische datengetriebene Modellgenerierung genutzt. Einen Ansatz hierfür stellt die Arbeit "Automatische Generierung adaptiver Modelle zur Simulation von Produktionssystemen" von Dr. Sören Bergmann dar. Aufbauend auf seinen Interpretationen zur Nutzung des Standards wird in dieser Arbeit ein Entwurf für die Implementierung eines Frameworks zur automatisierten Generierung interaktiver 3D-Animationen erarbeitet. Dieser Entwurf wird im Anschluss durch die Implementierung eines ersten Prototyps validiert.



Sommer, Christian;
Erzeugen von Entscheidungsbäumen aus Daten im Simulationskontext. - 80 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2015

Das Treffen von strategischen und taktischen Entscheidungen bei der Planung und Steuerung von Produktionssystemen wirft eine Reihe von Problemen auf. Um die Qualität dieser Entscheidungen zu verbessern, kann das System in einem Simulationsmodell abgebildet werden und damit Handlungsalternativen ohne Hinzunahme des realen Produktionsgeschehens erforscht werden. Auf Grund der großen Anzahl von beeinflussbaren und nicht beeinflussbaren Faktoren bei der Durchführung der Experimente ist das Erkennen des geeigneten Weges zur Optimierung des Modells und damit des abgebildeten System nicht einfach. Um dieses Problem zu lösen, bieten sich verschiedene Methoden des Data Mining an. Dieses Forschungsgebiet beschäftigt sich mit der Entdeckung von neuem Wissen aus einer großen Datenmenge, wie sie bei der Durchführung von Simulationsexperimenten entsteht. Entscheidungsbäume stellen ein Teilgebiet des Data Mining dar. Ziel der Arbeit ist es, ein Konzept zu entwickeln, um Daten aus Simulationsmodellen mit Hilfe von diesen Bäumen darzustellen und zu analysieren sowie das Potenzial dieses Konzeptes einzuschätzen. Zur Generierung der zu untersuchenden Daten werden in der Simulationssoftware Plant Simulation beispielhaft Modelle von Produktionssystemen erstellt. Inkrementelle und nichtinkrementelle Algorithmen aus den Data-Mining-Bibliotheken Weka und Moa werden auf die generierten Daten angewendet, um Entscheidungsbäume zu erstellen. Anschließend wird bewertet, inwieweit die entstandenen Bäume die Qualität der Handlungsempfehlungen bezüglich des jeweiligen Systems verbessern.



Reinsberger, Grisel;
State of the Art : Industrielle Bildverarbeitung und deren Potentiale zur Simulationsdatenerzeugung. - 88 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Diese Arbeit zeigt den aktuellen Stand der Forschung im komplexen Bereich der industriellen Bildverarbeitung auf und untersucht dabei, inwieweit die Gewinnung von Eingabedaten für die Simulation im Bereich der Logistik und Produktionssysteme möglich ist. Dafür werden aktuelle Methoden und/oder Ansätze der industriellen Bildverarbeitung betrachtet, die helfen können, geeignete Eingabedaten für Simulationsmodelle zu erzeugen. Nach einer Erläuterung grundlegender Erkenntnisse der industriellen Bildverarbeitung und der Simulation von Produktionssystemen, folgt die ausführliche Auseinandersetzung mit den gewählten Ansätzen durch Beispiele und Anwendungsszenarien. Die Methode der konzentrischen Kreise und die bibliographische Methode wurden als Suchstrategien zur Literaturrecherche dieser Arbeit eingesetzt. Die konzeptzentrierte Strukturierung von Webster und Watson wurde zur Analyse und Bewertung der ausgewählten methodischen Ansätze angewendet. Dabei wurde festgestellt, dass sich die meisten aktuellen Ansätze auf Bildsegmentierung und Objekterkennung konzentrieren, dass die Parallelisierung und Echtzeit-Verarbeitung eine wichtige Rolle in Bildverarbeitungsprozessen bei derAuswahl geeigneter Hardware spielt. Desweiteren sind die am häufigsten angewendeten Werkzeuge in Bildverarbeitungsaufgaben zur Erzeugung von 3D-Modellen nicht nur Laserscanner, die OpenCV-Bibliothek und das Kinect-Gerät sind, sondern auch die Entwicklung eigener Software. Obwohl ein umfangreiches Wissen aus vielen Bereichen der Informatik zur Implementierung von modernen Bildverarbeitungsalgorithmen notwendig ist und die Software-Werkzeuge derzeit nur in geringem Maße vorhanden sind, besteht trotzdem die Möglichkeit, Methoden der industriellen Bildverarbeitung zur Generierung von technische Daten als Eingabedaten, z.B. für die Simulation einer Fabriklayoutanpassung, für eine Ergonomiesimulation oder sogar als ergänzende Datenquelle für die Materialflusssimulation einzusetzen.



Ehrhardt, Robert;
Klassifizierung und Analyse aktueller JavaScript-Frameworks. - 88 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Ziel dieser Arbeit ist es, zunächst einen Überblick über die theoretischen Grundlagen zu schaffen, wozu die Klärung und Einordnung der Begrifflichkeiten sowie die Erarbeitung von technischen Grundlagen gehören. Danach werden Eigenschaften und Besonderheiten von JavaScript-Frameworks identifiziert und daraus ein Klassifizierungsansatz abgeleitet. Anschließend werden aktuelle JavaScript-Frameworks hinsichtlich der Zielstellung, Funktionsumfänge und technischen Merkmale untersucht und dem zuvor erarbeiteten Klassifizierungsansatz zugeordnet. Mit Hilfe des daraus entstehenden Katalogs soll die Identifizierung von geeigneten Frameworks für ein Vorhaben, anhand spezifizierter Eigenschaften, ermöglicht und erleichtert werden. Um einen methodischen Vorgang zu gewährleisten, wurde für die Erarbeitung des Kriterienkatalogs das Framework zur Bewertung und Auswahl von Software von Jadhav und Sonar genutzt. Das Ergebnis ist ein Kriterienkatalog zur Bewertung von JavaScript-Frameworks mit 55 Kriterien, welche den Kategorien funktionelle, technische, qualitative und anbieterbezogene Kriterien sowie Kriterien zu Kosten und Nutzen zugeordnet wurden. Darüber hinaus wurden 11 Frameworks beziehungsweise Bibliotheken nach dem Kriterienkatalog untersucht und bewertet.



Konopka, Max;
Ein Vorgehensmodell zur simulationsbasierten Anlagenoptimierung in der Fließfertigung. - 109 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Der fortwährende Wandel im Wirtschaftsleben und die daraus resultierende Wettbewerbssituation erfordern in Zukunft umfassende Effizienz- und Effektivitätssteigerungen in allen Unternehmen. Dabei ist insbesondere im Bereich der Anlagenoptimierung die Beurteilung von Optimierungsmaßnahmen hinsichtlich ihrer Wirkungen im Vorfeld häufig nicht möglich. Eine Strategie zur Lösung dieser Problemstellung besteht in der Kopplung einer simulationsbasierten Optimierung mit einer Was-wäre-wenn-Analyse. Dadurch ist es möglich, die Auswirkungen von Optimierungsmaßnahmen zu beschreiben und zugleich den Entscheidungsträger bei einer entsprechenden Auswahl zu unterstützen. Hierfür wird in der vorliegenden Arbeit ein Vorgehensmodell entwickelt. Zentrales Element dieses Konzepts ist ein Framework, welches alle notwendigen Funktionen zur Abbildung der Datenintegration, Datenanalyse, Modellerstellung und Optimierung enthält. Als Grundlage für die Modellgenerierung dient ein Konzeptmodell einer Fließfertigung, dass einerseits alle relevanten Einflussgrößen berücksichtigt und andererseits allgemein genug ist, um auf beliebige Fließfertigungsstrukturen adaptiert werden zu können. Für die Bewertung der Optimierungsvarianten werden dem Entscheidungsträger verschiedene Zielfunktionen bereitgestellt. Die Implementierung aller Komponenten erfolgt mit Hilfe der Software MATLAB/Simulink. Anhand eines realen Praxisbeispiels wird die dargestellte Vorgehensweise überprüft sowie deren Funktionsfähigkeit nachgewiesen. Im Vergleich zur klassischen Optimierungsstrategie gemäß dem "Versuch und Irrtum-Prinzip" können hierbei verschiedene Maßnahmen auf Basis unterschiedlicher Zielstellungen einander gegenübergestellt werden. Somit ist eine schnelle, einfache und damit zugleich effiziente Überprüfung der Auswirkungen von Optimierungsmaßnahmen möglich.



Heiland, Robert;
Konzeption für selbst-adaptierende Simulationsmodelle. - 98 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Im Zuge der Globalisierung und des damit ansteigenden Wettbewerbsdrucks streben Unternehmen stets eine effiziente und moderne Produktion an. Hierbei ist der Einsatz von rechnergestützten Systemen aufgrund der steigenden Komplexität der nicht mehr wegzudenken. In diesem Zusammen ist die Bedeutung der Anwendung von Simulationsmodellen in Bezug auf Analysen komplexer System hinsichtlich spezifischer Fragestellungen stetig gestiegen. Zudem werden Simulationsmodelle immer häufiger zur Entscheidungsunterstützung eingesetzt. Produktionsplanungs- und Steuerungsstrategien werden auf Basis der Analysen und Prognosen bezüglich der betrachteten Systeme entwickelt. In Verbindung mit sich schnell ändernden Systemen steigt zunehmend der Betreuungsaufwand und damit verbunden die Anforderungen an Simulationsmodelle. Unter dem Gedanken der Effizienzsteigerung werden in diesem Zusammenhang Untersuchungen auf dem Gebiet von automatisierten Simulationsmodellen durchgeführt. Ein in diesem Kontext bedeutendes Themengebiet befasst sich mit der Entwicklung von selbst-adaptierende Simulationsmodelle. Im Rahmen dieser Thesis sollen deshalb grundlegende Erkenntnisse über Gestaltungsmöglichkeiten der Architektur von selbst-adaptierenden Simulationsmodellen gewonnen werden. Neben einer allgemeinen einführenden Betrachtung der Adaptionstheorie im Simulationskontext, werden primär Fragestellungen hinsichtlich der Detektion des Adaptionsbedarfes, der verschiedenen Adaptionsmechanismen und der Validierung und Verifizierung der Adaptionsmodelle thematisiert und diskutiert. Weiterführend werden allgemeine Anforderungen und Zusammenhänge zwischen den Prozessschritten der Adaption aufgezeigt. Auf der Grundlage der theoretischen Auseinandersetzungen mit den thematisierten Problemstellungen wird anschließend ein entwickeltes Konzept der Adaption auf Basis von Prognosen vorgestellt. Weiterführend wird eine prototypische Implementierung dieses Konzepts auf der Grundlage von empirischen Untersuchungen näher betrachtet und diskutiert. Die Untersuchungsergebnisse in Bezug auf das zugrunde gelegte Praxisbeispiel zeigen zunächst, dass Abhängigkeiten zwischen den einzelnen vorgestellten Mechanismen existieren und die Architektur des Adaptionssystems unter entsprechender Beachtung der verschiedenen Anforderungen entwickelt werden muss. Weiterhin wird die Erkenntnis gewonnen, dass aufgrund der Ungewissheit über zukünftige Entwicklungen die Notwendigkeit der Betrachtung von mehr als einem Modellierungsverfahren zur Wahrung der Funktionalität besteht. Zusätzlich wird diese Notwendigkeit aufgrund der unterschiedlichen Verhaltensfunktionen der betrachteten Systemkomponenten begründet. Zusammenfassend bilden die im Rahmen dieser Arbeit gewonnenen Erkenntnisse eine Grundlage für weitere Untersuchungen, welche abschließend in Ausblick gestellt werden.



Schneider, Christoph;
Vergleich der Prognoseeigenschaften von APS- und Simulationssoftware. - 55 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Die Begriffe APS und Simulation werden, im Bereich der Produktionsplanung und -steuerung, in einem engen Zusammenhang verwendet. Dabei entsteht eine Verwirrung bei der Benutzung dieser Begriffe. In dieser Arbeit wird der Unterschied zwischen den Berechnungen, die in APS-Software durchgeführt werden und Simulationen aufgezeigt. Dabei baut diese Arbeit auf eine literarische Analyse dieser Begriffe auf, mit besonderer Betrachtung der Prognose- und Berechnungsverfahren. In Zusammenarbeit mit der IPOL GmbH wurden die Unterschiede zwischen APS und Simulation anhand einer realen Fallstudie untersucht. In dieser Fallstudie wurde die Produktion eines mittelständischen Unternehmens in je eine APS- und Simulationssoftware abgebildet und Vergleichsstudien durchgeführt. Durch die Beschränkung in APS-Software auf rein deterministische Simulationen wird die charakteristische Eigenschaft von Simulationen, die Berücksichtigung von Zufälligkeiten, außen vor gelassen. Die Berechnungen mit Mittelwerten, wie sie in APS-Software durchgeführt werden, erzeugen ein weniger realistische Bild der realen Produktion, wie mit einer Simulationssoftware möglich ist. In der Fallstudie wurden diese typischen Unterschiede zwischen deterministischen Berechnungen in APS-Systemen und stochastischen Simulationen aufgezeigt. Die Begriffe APS und Simulation werden, im Bereich der Produktionsplanung und -steuerung, in einem engen Zusammenhang verwendet. Dabei entsteht eine Verwirrung bei der Benutzung dieser Begriffe. In dieser Arbeit wird der Unterschied zwischen den Berechnungen, die in APS-Software durchgeführt werden und Simulationen aufgezeigt. Dabei baut diese Arbeit auf eine literarische Analyse dieser Begriffe auf, mit besonderer Betrachtung der Prognose- und Berechnungsverfahren. In Zusammenarbeit mit der IPOL GmbH wurden die Unterschiede zwischen APS und Simulation anhand einer realen Fallstudie untersucht.



Krämer, Bernhard;
Prinzipien zur Konfiguration komplexer Industrieprodukte. - 103 S. : Ilmenau, Techn. Univ., Masterarbeit, 2015

Vertriebliche Produktkonfiguratoren dienen im Handel komplexer Produkte als zentrales Instrument zur Interaktion zwischen verschiedenen Teilnehmern eines Wirtschaftsmarktes. Das Potential solcher Systeme besteht zum einen in der Bedürfnisbefriedigung der Kunden durch die Konfiguration eines Produktes nach den individuellen Ansprüchen. Zum anderen streben die Unternehmen durch den Einsatz von Produktkonfiguratoren nach Gewinnmaximierung und Absatzsteigerung in Bezug auf den Verkauf eigener Produkte. Die angebotenen Produkte weisen oft eine hohe Variantenvielfalt sowie starke Abhängigkeiten der Produktkomponenten untereinander auf. Die Beherrschung der dadurch entstehenden Produktkomplexität ist für die Produktkonfiguration ein entscheidender Aspekt. Aus diesem Grund liegt der Fokus dieser Arbeit auf einer Klassifizierung, welche alle möglichen Abhängigkeiten und Beziehungen innerhalb der Produktlogik dieser Produkte betrachtet und unterschiedlichen Konfigurationsprinzipien zuordnet. Hierzu werden in einem ersten Schritt die erforderlichen Grundlagen aufbereitet und vermittelt. In einem zweiten Schritt erfolgt eine grundlegende Klassifikation von Konfigurationssystemen sowie der Datensemantik. Darauf aufbauend erfolgt die Klassifikation der Konfigurationsprinzipien. Hierzu werden die Klassifikationskriterien vorgestellt und in zwei Hauptkategorien unterschieden. Zudem werden verschiedene Abbildungsmöglichkeiten für die Konfigurationsprinzipien vorgestellt und an einem durchgängigen Beispiel erklärt. Im Anschluss werden die vorgestellten Konfigurationsprinzipien sowie deren Abbildungsmöglichkeiten bewertet und eingeordnet. Zum Abschluss der vorliegenden Arbeit werden einige Aspekte zur Anwendung von Produktkonfiguratoren sowie Anwendungsbeispiele betrachtet.



Gladisch, Greta Victoria;
Einsatzszenarien simulationsbasierter Optimierung. - 75 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Für Unternehmen ist es heute wichtig, im nationalen und internationalen Wettbewerb zu bestehen. Dazu müssen sie sich bei niedrigen Produktionskosten flexibel an die Kundenwünsche anpassen können. Durch die Vielschichtigkeit der Produktionssysteme und den damit verbundenen dynamischen Einflussgrößen ist dies nicht einfach zu realisieren. Die Produktionsplaner benötigen deshalb zur Bewertung und Gestaltung der Faktoren ein Werkzeug, welches auch deren Dynamik berücksichtigt. Die simulationsbasierte Optimierung wird daher in Forschung und Praxis immer interessanter. In dieser Masterarbeit wird ein State-of-the-Art der simulationsbasierten Optimierung gegeben. Dazu werden zunächst die theoretischen Grundlagen untersucht. Anschließend werden die vorherrschenden Optimierungsmethoden betrachtet. Zudem erfolgt eine Analyse von Publikationen hinsichtlich der Optimierungsmethoden, der Problemklassen, den Zielgrößen und dem Umgang mit stochastischen Einflüssen. Im letzten Teil der Arbeit wird in Plant Simulation ein Produktionssystem, das durch Kanban gesteuert wird, modelliert. Das Ziel der angewandten simulationsbasierten Optimierung ist die Bestimmung der Kapazitäten der Kanban-Puffer. Dazu wird zum einen der in Plant Simulation integrierte genetische Algorithmus genutzt und zum anderen ein Simulated Annealing Algorithmus.



Evers, Patrick;
Materialflusssimulation als Hilfsmittel zur Analyse und Planung von Routenzügen für die innerbetriebliche Materialbereitstellung. - 125 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Die langfristigen Ziele der Linde Material Handling GmbH sind die weltweite Markposition weiter auszubauen und die Position als Marktführer in Europa aufrecht zu erhalten. Eine der wesentlichen Voraussetzungen zur Erreichung dieser Ziele ist die Generierung von Wettbewerbsvorteilen gegenüber Konkurrenzunternehmen. Die Grundlage hierfür bildet die Steigerung der Kundenzufriedenheit und Kundenattraktivität. Um die stetig steigenden Kundenanforderungen zu erfüllen, strebt die Linde Material Handling GmbH in allen Unternehmensbereichen ständig nach Verbesserungen. Daraus resultierend steht mittelfristig unter anderem die Steigerung der Produktionskapazität und Liefertreue im Fokus des Unternehmens. Eine der grundlegenden Voraussetzungen zur Erreichung dieser Ziele ist die Steigerung der innerbetrieblichen Logistikleistungen. Daraus folgend ist das System des Routenzugs zur innerbetrieblichen Materialbereitstellung, zwischen der Rahmenfertigung und der Montage der Flurförderfahrzeuge, der Gegenstand der vorliegenden Arbeit. Die Zielsetzungen der Arbeit sind die Aufnahme der Struktur und Steigerung der Prozesstransparenz des Routenzugsystems sowie die Erarbeitung eines Konzepts zur Reduzierung der Auslastung, Bestände und Durchlaufzeiten sowie Steigerung der Termintreue des Routenzugsystems. Ausgehend von der ersten Zielsetzung werden zunächst die theoretischen Grundlagen der Materialflusssimulation erarbeitet und anschließend das System des Routenzugs analysiert. Die Analyse des Systems erfolgt dabei mittels der Durchführung einer Simulationsstudie. Zur Erfüllung der zweiten Zielsetzung wird auf der Grundlage der Simulationsergebnisse der Systemanalyse ein zentrales Leitsystem zur Steuerung des Routenzugs entworfen und mittels einer weiteren Simulationsstudie bewertet.



Chen, Yubin;
Interoperabilität von Simulationsmodellen im Kontext der Supply Chain Simulation - Potentiale des CMSD Standards als Datenaustauschformat der verteilten Supply Chain Simulation. - 75 S. Ilmenau : Techn. Univ., Masterarbeit, 2015

Simulationstechnik ist eine im Produktions- und Logistikbereich verbreitet eingesetzte Technologie. Für die Simulation von sehr großen und komplizierten Systemen wie eine Supply Chain hat die klassische Simulationstechnik mit einem monolithischen Modell die Grenzen getroffen. Zum Zweck der Reduzierung der Rechenzeit und Erleichterung der Modellbildung wir die verteilte Simulation für großes System eingesetzt. Um die Aufwände bei der Modellerstellung jedes Teilmodells zu senken, ist es sinnvoll, die Interoperabilität zwischen den Modellen zu erhöhen. Zu beachten ist, dass es im Kontext der Supply Chain Simulation meistens nur der Interoperabilitätsfall "Entity Tansfer" zu berücksichtigen ist. Dieses ermöglicht bei der Simulation, auf die Synchronisation zu verzichten. In dieser Arbeit wurde ein sequentieller Ansatz untersucht, unter dem die Teilmodelle getrennt ablaufen können und nur durch Datenaustausch gekoppelt. Zusätzlich wurde die Eignung des Core Manufacturing Simulation Daten (CMSD) Standard als Datenaustauschformat diskutiert und schließlich ein Prototyp realisiert.



Volf, Jan;
Untersuchung optimistischer Synchronisationsverfahren in der verteilten Simulation mit SLX und HLA. - 87 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Diese Masterarbeit befasst sich mit der Untersuchung optimistischer Synchronisationsverfahren. Hierzu werden zunächst bekannte Theorien und Algorithmen des konservativen, sowie des optimistischen Ansatzes vorgestellt. Anschließend erfolgt eine Anforderungsanalyse für die Implementierung eines optimistischen Synchronisationsansatzes in einem Commercial Off-The-Shelf Simulation Package (CSP). Als CSP wurde für diese Arbeit die Simulationssoftware "SLX" gewählt unter Anbindung einer zuvor nach Straßburger implementierten SLX-HLA-Schnittstelle. Die Arbeit befasst sich daraufhin mit der Konzeption eines Rollback-Managers für die Implementierung eines optimistischen Ansatzes. Dabei werden zudem Änderungen der SLX-HLA-Schnittstelle dokumentiert. Das konservative und optimistische Verfahren werden abschließend durch Experimente an einem einheitlichen Referenzmodell miteinander verglichen.



Hinze, Ulrich;
Automatische Erkennung von Steuerungsregeln mithilfe von Data Mining und maschinellem Lernen. - 81 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Ziel des Forschungsbereichs der automatischen Simulationsmodell-Erstellung ist es, den Einsatz der Simulation in produzierenden Unternehmen durch Kostenverringerung weiter zu verbreiten. Dazu werden bereits im Unternehmen vorhandene Daten ausgewertet, um Informationen für den Aufbau des Simulationsmodells zu erhalten. Der zeitliche Aufwand für den Einsatz der Simulation kann damit deutlich verringert werden, außerdem entfällt der Bedarf an einem Simulationsexperten für den Aufbau des Modells. Diese Arbeit beschäftigt sich in diesem Rahmen mit sogenannten Steuerungsregeln, die in Produktionssystemen als Verhaltensvorgabe an Maschinen oder Arbeiter der Produktion dienen und so die Reihenfolge von Aufträgen in ihrem Fluss durch das System vorgeben. Anhand von Daten der Betriebsdatenerfassung lassen sich diese Regeln potentiell unter Anwendung von Data-Mining-Algorithmen automatisch bestimmen. Untersucht wird in dieser Arbeit vor allem, welche Algorithmen sich unter welchen Bedingungen am besten für den Einsatz in diesem Problembereich eignen. Dazu werden unterschiedliche, repräsentative Szenarien ausgewählt, anhand derer die Güte von fünf verschiedenen Data-Mining-Algorithmen mit jeweils mehreren Parametrisierungen getestet werden können.



Unbehaun, Rico;
Mobile App-Entwicklung/State of the Art: Anwendungen im Consumer- und Businessbereich, Eigenschaften, Voraussetzungen und Probleme der verschiedenen Entwicklungsansätze. - 90 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

In den letzten wenigen Jahren konnte eine rasante Entwicklung des Smartphone Marktes, begünstigt durch die zunehmend verbesserte Hardware mobiler Endgeräte sowie dem Aufkommen und schnellen Verbreiten mobiler Anwendungen, verzeichnet werden. Zeitgleich mit der Entwicklung des Smartphone Marktes entstanden neue Plattformen für unterschiedliche mobile Endgeräte. Das hatte zur Folge, dass sich heterogene Systemlandschaften bildeten. Die mobilen Plattformen sind, zusammen mit ihren eigenen Absatz- und Verteilplattformen, zu weitestgehend eigenen Ökosystemen, mit eigenen Entwicklungssystemen, herangewachsen. Aufgrund der unterschiedlichen Entwicklungssysteme führt dies dazu, dass die Entwicklungskosten mit der Anzahl unterstützter Plattformen deutlich zunehmen. Schnell kommt der Wunsch auf, den rasanten Marktänderungen und Kundenwünschen durch kürzere Entwicklungs- und Lebenszyklen der mobilen Anwendungen, gerecht zu werden. In den letzten Jahren entstanden somit unzählige Möglichkeiten, mobile Anwendungen zu entwickeln. Jedoch existiert eine Vielzahl an Herausforderungen bei der Entwicklung, wie z.B. die fehlende Interoperabilität der verschiedenen mobilen Plattformen, um mobile Anwendungen zu entwickeln. Auf dem Markt konkurrieren weitreichende Möglichkeiten der mobilen Anwendungsentwicklung die sich, je nach späterem Anwendungsgebiet, dem funktionalen Umfang sowie der Technik selbst teilweise weitestgehend unterscheiden. Diese Arbeit zielt darauf ab, aktuelle Entwicklungsansätze mobiler Business- und Consumer Apps zu beschreiben und ausgewählte Techniken für die unterschiedlichen Entwicklungsansätze anhand einer Beispielanwendung zu evaluieren.



Parzefall, Florian;
Konzeption und prototypische Implementierung eines webbasierten Post-Simulation Animationstools zur Verarbeitung von CMSD Daten. - 101 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Die Animation von Simulationsdaten hat das Ziel dem Betrachter die Fähigkeit zu geben, Vorgänge analytisch zu erkennen und zu bewerten. Des Weiteren ermöglicht sie das Aufdecken von inneren, sonst verborgenen Zusammenhängen. Jedoch ist die Erstellung einer Animation aufwendig. Deshalb beschäftigt sich diese Masterarbeit mit der automatischen Generierung von Animationen auf Basis des Core Manufacturing Simulation Data Standard, sowie der prototypischen Implementierung eines webbasierten Post-Simulation Animationstools. Um dies zu erreichen müssen zwei Bereiche untersucht werden. Zum einen die Informationen, auf deren Basis der Prototyp erstellt wird, zum anderen die Webtechnologie, auf deren Basis der Prototyp implementiert wird. Für den ersten Bereich werden zunächst die Eigenschaften von Animationen und die für die Erstellung benötigten Informationen aufgezeigt. Anschließend wird erläutert, wie die benötigten Information aus der CMSD Datenbasis gelesen bzw. erzeugt werden. Für die Wahl der geeigneten Webtechnologie wurde zunächst ein Kriterienkatalog erstellt. Anschließend wurden verschiedene Ansätze vorgestellt und mittels des Kriterienkatalogs bewertet. Als bestgeeignete Technologie wurde eine Kombination aus HTML5, Javascript und dem Framework KineticJS erachtet. Im praktischen Teil der Arbeit wird auf Basis der zuvor erarbeiteten Grundlagen die prototypische Implementierung erläutert.



Rutzen, Friedrich;
Development and application of a criteria catalog for the evaluation of the modeling capability of discrete-event simulation software for production applications. - 69 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Für die Evaluation wurden verschiedene Methoden analysiert. Der Analytic Hierarchy Process (AHP) stellte sich dabei als die sinnvollste Methode heraus. Ein Kriterienkatalog und die Erfahrungen aus zwei Testfällen dienten als Grundlage für die abschließende Bewertung.



Mandok, Steffen;
Bestimmung und Visualisierung von Engpassnetzen zur Analyse und Bewertung von Engpässen und Materialströmen im Produktionsprozess. - 77 S. Ilmenau : Techn. Univ., Masterarbeit, 2014

Um das Leistungsvermögen von Produktionssystemen zu verbessern, ist es notwendig, die begrenzenden Faktoren zu optimieren - die Engpässe. Diese werden bestimmt durch sogenannte Engpassanalyseverfahren. Die Anwendung dieser Verfahren bietet aber nur begrenzt Potential, um Ursachen und Folgen von Engpässen innerhalb von Produktionsnetzwerken zu analysieren. Durch die Bestimmung und Visualisierung von Engpassnetzen wird in dieser Masterarbeit aufgezeigt, wie eine, auf diese Verfahren aufbauende, Analyse und Bewertung vorhandener Engpasssituationen möglich ist. Dazu wurde eine Betrachtung der in der Literatur vorhandenen Methoden zur Engpassanalyse durchgeführt und ein Verfahren gewählt, welches die Grundlage zur Erstellung von Engpassnetzen bildet. Die Anforderungen an eine Netzvisualisierung wurden in Zusammenarbeit mit einem Produktionsunternehmen aufgenommen und in dem Modell der Engpassnetze umgesetzt. Dieses wurde in einem Prototyp implementiert, um in Verbindung mit dem gewählten Engpassanalyseverfahren ein geeignetes Werkzeug zur Entscheidungsunterstützung im Produktionsplanungs- und -steuerungsprozess zur Verfügung zu stellen. Schließlich wurden die erreichten Ergebnisse bei der Analyse von Engpasssituationen anhand verschiedener Anwendungsszenarien überprüft, wodurch der Nutzen von Engpassnetzen bei der Anwendung im Engpassmanagement dargestellt werden konnte.



Feldkamp, Niclas;
Automatische Generierung von Routennetzen für die mikroskopische Verkehrssimulation. - 111 S. : Ilmenau, Techn. Univ., Masterarbeit, 2014

Im Rahmen der Modellerstellung für mikroskopische Verkehrssimulationen ist die exakte Abbildung der geographischen und topologischen Eigenschaften des Routennetzwerks mit Aufwand und Kosten verbunden. Ein möglicher Ansatz zur Reduzierung dieses Aufwands liegt in der automatischen Modellgenerierung durch die Nutzung digitaler Karten. Diese Arbeit untersucht am Beispiel von OpenStreetMap, inwiefern offene, frei verfügbare Datenquellen für die automatische Routennetzgenerierung herangezogen werden können. Hierzu wurden Methoden und Algorithmen entwickelt, um OpenStreetMap-Daten in geeignete Datenstrukturen für ein Routennetz zu überführen. Weiter wurden diese Datenstrukturen in ein ganzheitliches und erweiterbares Framework für die mikroskopische Verkehrssimulation eingebettet. Dieses umfasst die Konfiguration der Simulation, Datenstrukturen für dynamische Simulationsentitäten sowie die Anbindung an einen Simulator. Zudem wurde mit Hilfe des konzeptionellen Ansatzes ein Prototyp entwickelt, anhand dessen gezeigt werden kann, welche Potenziale und Einschränkungen die Nutzung von OpenStreetMap-Daten hinsichtlich der Routennetzgenerierung bietet.



Günkel, Florian;
Simulationsbasierte Optimierungslösung einer Produktionsbereichsplanung in kleineren und mittleren Unternehmen. - 110 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Die Produktionsplanung stellt im Unternehmen eine besondere Herausforderung dar. In vielen KMU werden zur Produktionsplanung Standardprozesse des ERP-Systems verwendet. Diese beruhen häufig auf statischen Randbedingungen und bilden das reale System nur unzureichend ab. Zudem ist eine präzise Planung nur auf Basis einer entsprechenden Qualität der zugrunde liegenden Datenbasis möglich. Bei der Datenqualität besteht allerdings in einem Großteil der KMU Handlungsbedarf. Oftmals weichen aus den genannten Gründen der Plan und der tatsächliche Verlauf der Produktion nicht unerheblich voneinander ab. Deshalb bestand das Ziel der Arbeit in einer Optimierung des Produktionsplanungsprozesses auf Bereichsebene in Bezug auf eine Erhöhung der Planungsqualität und -flexibilität sowie einer Steigerung der Datenqualität. Der Lösungsansatz bestand in der Erweiterung des Planungsprozesses mit Hilfe von Simulation. Simulation bietet die Möglichkeit die Komplexität eines Produktionssystems besser zu beherrschen, als es mit ERPStandardprozessen der Fall ist. Zu diesem Zweck wurde ein KMU-spezifisches Organisations- und Schnittstellenkonzept zur Bündelung der Vorteile eines simulationsbasierten Assistenzsystems und des ERP-Systems unter Berücksichtigung des Aspektes der Datenqualität entwickelt. Zur Validierung erfolgte eine prototypische Umsetzung des Lösungskonzepts in einem Produktionsbereich des Unternehmens UST Umweltsensortechnik GmbH. Eine Assistenzlösung für eine mittelfristige Produktionsplanung ist dabei entwickelt worden. Mit deren Hilfe kann eine verbesserte Nivellierung der Produktion erreicht und die Liefertreue erhöht werden.



Lohmeyer, Ralph;
Grafische Modellierung als Fassade der Simulationsmodellerstellung. - 94 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Ein wichtiger Schritt im Rahmen von Simulationsstudien ist die Modellierung des eigentlichen Simulationsmodells. Hierzu hat sich eine größere Anzahl an speziell ausgerichteten Simulationssprachen und Tools etabliert. Jedoch gibt es auch außerhalb der Domäne der Simulationen mächtige und etablierte Modellierungssprachen zur Modellierung von komplexen Systemen. Diese Arbeit untersucht nun, inwiefern derartige simulationsfremde Modellierungssprachen für die Modellierung von Simulationsmodellen im Bereich der Industrie und Fertigung anwendbar sind. Hierzu wurden typische Bestandteile von Simulationsmodellen der Fertigung identifiziert und dann untersucht, inwiefern 3 exemplarisch ausgewählte Modellierungssprachen - SysML, BPMN und EPKs - in der Lage sind, diese typischen Bestandteile zu modellieren und diskutiert, wie entsprechende Beschränkungen der Sprachen theoretisch umgangen werden können. Gleichzeitig wurden entsprechende Möglichkeiten für ein eventuelles praktisches Vorgehenskonzept zur Nutzung solcher Modelle für Simulationen diskutiert. Im zweiten Teil der Arbeit wurde dann an einem konkreten Beispiel ein solches Vorgehenskonzept exemplarisch ausgetestet. Es wurde ein typisches Fertigungsszenario mithilfe einer EPK modelliert und in einem Austauschformat (XML) abgespeichert. Mithilfe der Transformationssprache XSLT wurde dieses Modell dann in ein dem Simulationsstandard CMSD konformes Modell umgeformt, sodass dieses CMSD-Modell nun mit entsprechenden Tools für einen Simulator initialisiert werden könnte. Hierbei wurde exemplarisch zumindest die theoretische Möglichkeit des Ansatzes demonstriert. Schlussendlich wurden als Ergebnis der theoretischen und praktischen Überlegungen Möglichkeiten, Grenzen und Beschränkungen der Nutzung derartiger Modellierungssprachen für Simulationen aufgezeigt.



Schirmacher, Franz;
Simulationsbasierte Optimierung von Job-Schedules im Kontext von Symbiotic Simulation Systemen. - 74 S. : Ilmenau, Techn. Univ., Masterarbeit, 2013

Im Verlaufe der Masterarbeit wurde der vorgestellte Ansatz näher untersucht und ein prototypisches System auf seiner Basis implementiert. Zunächst wurden dafür in Kapitel 1 bis 6 die theoretischen Grundlagen erörtert. Ausgehend von einer Betrachtung der Entwicklung des Marktes von Produktionsunternehmen wurden hierzu die grundlegende Problematik der Reihenfolgeplanung sowie spezielle Planungsprobleme und -zielkriterien betrachtet. Nach einer folgenden Erörterung verschiedener Möglichkeiten der Lösung von Job-Shop-Problemen, wobei ein besonderer Fokus auf Genetische Algorithmen als heuristische Methode sowie die Simulation als Optimierungswerkzeug gelegt wurde. Zuletzt erfolgte im Rahmen der theoretischen Ausarbeitung, nach einer Einordnung zuvor genannter Begriffe in den Rahmen von Symbiotic Simulation Systemen, die Betrachtung des Core Manufacturing Simulation Data (CMSD) Models als standardisiertes Austauschformat von produktionsspezifischen Daten. Neben der theoretischen Betrachtung lag der Schwerpunkt dieser Arbeit in einer prototypischen Umsetzung eines Systems im Sinne einer simulationsgestützten Optimierung. Hierfür erfolgte zunächst eine konzeptionelle Ausarbeitung und Planung der verschiedenen Komponenten, welche in Kapitel 7 näher erläutert wurden. Als Optimierungsmethode wurde die Implementierung eines Genetischen Algorithmus gewählt, für den Datenaustausch zwischen Fertigungssystem, Optimierungskomponente und Simulation wurde der CMSD-Standard genutzt. Der Fokus der Betrachtung lag dabei eindeutig bei der Kopplung von Optimierung und Simulation. Die Verknüpfung der beiden Komponenten mit dem Produktionssystem wurde lediglich angeschnitten. Auf Basis des implementierten Systems erfolgten daraufhin unter Verwendung eines zuvor definierten Produktionssystems mit gegebenen Auftragsbeständen mehrere Versuchsreihen, welche sich in 2 Phasen gliederten. Im ersten Schritt wurden zunächst günstige Parameter für den Genetischen Algorithmus ermittelt. Der zweite Schritt befasste sich anschließend mit der Untersuchung der grundlegenden Funktionalität der implementierten simulationsgestützten Optimierung unter Berücksichtigung stochastischer Einflussgrößen.



Wüstemann, Sascha;
CMSD-basierte automatische Generierung und Simulation von SLX-Modellen auf Basis von Daten des SAP ERP. - 120 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

In den Teilbereichen der operativen Fertigungsplanung und -steuerung in Unternehmen müssen eine Vielzahl von Restriktionen, zeit- und zufallsabhängige Systemgrößen und stark vernetzte Wirkzusammenhänge beachtet werden, sodass rein analytische Lösungsverfahren nicht mehr angewendet werden können. In diesen Fällen kann die Simulation zur Untersuchung des zeitlichen Ablaufverhaltens komplexer technischer Systeme und folglich zur Unterstützung der strategischen Planung und des operativen Betriebs eingesetzt werden. Eine Möglichkeit zur Lösung dieser Probleme ist die datengetriebene (teil-) automatische Simulationsmodellgenerierung. Dabei wird ein Simulationsmodell weitgehend auf Basis von Informationen aus verschiedenen Datenquellen (z.B. ERP Systeme, PPS Systeme, MES) erstellt. Im Rahmen dieser Arbeit wurden die kurz- und langfristigen Aufgabenbereiche der Arbeitsvorbereitung mit besonderem Fokus auf der Erstellung von Arbeitsplänen beleuchtet. Zunächst wurden simulationsrelevante Daten des SAP ERP Systems bestimmt, analysiert und deren Abbildung im CMSD-Format konzeptioniert. Im Fokus steht dabei die Abbildung von Arbeitsplänen und Fertigungsalternativen. Bei der Datenextraktion sollen bereits vollständige ablauffähige CMSD-Modelle entstehen, die gleichzeitig zum Datenaustausch genutzt werden. Bei der Umsetzung wurde eine Möglichkeit zur Integration der Simulation mit dem SAP ERP System auf Basis des CMSD Information Model konzeptioniert und prototypisch implementiert. Dies umfasst einen Extraktor, der als Webservice parallel zu mehreren SAP ERP Systemen eingesetzt werden kann und CMSD-Modelle auf Basis der Daten des SAP ERP Systems generiert. Diese Generierung ist parametrisierbar und erfolgt durch die in der Konzeption erarbeiteten Vorbelegungen vollautomatisch. Die Beschreibung des Fertigungssystems in CMSD-Repräsentation kann zum Datenaustausch und zur Simulationsmodellgenerierung für die Simulationsumgebungen Plant Simulation und SLX verwendet werden. Durch Konzeption und Implementierung eines SLX-Modellgenerators, können CMSD-Modelle nun auch durch dieses Simulationssystem simuliert werden. Die genannten Aspekte erfüllen eine Vielzahl von Anforderungen an die Simulation im Unternehmenskontext, sodass die Konzepte und Prototypen die Grundlage für einen planungs- und entscheidungsbegleitenden Einsatz der Simulation bilden.



Just, Maximilian;
Simulation von Produktionssystemen unter Einbeziehung von Ressourcenbedarf und Emissionen. - 102 S. Ilmenau : Techn. Univ., Masterarbeit, 2013

Kern der Arbeit ist die Berücksichtigung von umweltrelevanten Informationen bei der Simulation von Produktionsanlagen. Dafür ist es notwendig nach erforderlichen Ressourcen- und Emissionsarten zu recherchieren und eine Abgrenzung der Betrachtung vorzunehmen. Die im ersten Teil festgelegten Informationen sind mit der Unterstützung der vom CMSD-Standard bereitgestellten Elemente für die in einem Simulationsmodell vorkommenden Objekte darzustellen. Eine weitere Zielstellung besteht darin, ein Beispielsimulationsmodell für eine industrielle Anlage zu erstellen, welches den Ausstoß an Emissionen und den Bedarf an Ressourcen abbildet. Anfänglich gilt es zu ermitteln, welche Substanzen in diesem Bereich aus Umweltsicht eine Rolle spielen und welche Ressourcen zu berücksichtigen sind. Außerdem sind Datenquellen zu erschließen, mit denen es möglich ist, eine Abschätzung über Verbrauch und Emission zu treffen. Weiterhin gilt es, eine geeignete Systemgrenze für die Betrachtung festzulegen. Die Aufgabenstellung schließt die Anfertigung eines beispielhaften Simulationsmodells ein. Also muss ein fiktives Produktionssystem mit einerseits definierten Verbrauchswerten für z. B. Energie und Wasser, aber andererseits auch mit Richtwerten für den Ausstoß von Schadstoffen und der Abfallproduktion entworfen werden. Der Kern der Arbeit wird die Umsetzung eines solchen Modells im CMSD-Standard sein. Ziel ist es, ein Modell, inklusive der Neuerungen, mit den vorhandenen Klassen zu erstellen. Dafür stellt CMSD bestimmte Klassen bereit, die hierfür zu nutzen bzw. zu kombinieren sind. Dafür sind diese wenn nötig zu erweitern, sodass Simulationsmodelle mit den unterschiedlichen Werten für Ressourcen und Emissionen mit Hilfe von CMSD abbildbar werden. Es sollte künftig möglich sein, aus dem erweitertem CMSD-Modell in automatischer Form ein visuelles Modell, z.B. in Plant Simulation, zu generieren. Für die Zwecke der Automatisierung sind bei der Modellerstellung mit CMSD Vorkehrungen hinsichtlich der Standardnutzung zu treffen, damit durch Erweiterungen keine übermäßige Entfernung zum ursprünglichen Standard entsteht.



Natterer, Michael;
Konzeption eines Kennzahlenkatalogs für Fertigungssysteme im Automotive-Bereich : prototypische Umsetzung und Evaluierung am Beispiel der Brose Fahrzeugteile GmbH & Co. KG.. - 208 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Durch den bestehenden Wettbewerbsdruck unterliegen moderne Fertigungssysteme stets dem Anspruch Qualität, Zeit und Kosten zu verbessern. Alle Ansätze diese Verbesserung durchzuführen sind jedoch auf die Existenz von Informationen der Fertigungsschicht angewiesen, die möglichst aufbereitet bestimmte Sachverhalte darstellen. Dementsprechend werden häufig Kennzahlen und Kennzahlensysteme genutzt, um so das Fertigungssystem zu überwachen. Welche Kennzahlen allerdings eingesetzt werden ist je nach Branche, Unternehmen oder sogar Werk unterschiedlich, was zu einer erschwerten Vergleichbarkeit und damit zu Aufwänden führt. Aus diesem Grund wird im Rahmen dieser Arbeit ein Vorschlag für ein Kennzahlensystem für den Automobil-Bereich vorgestellt, welcher sich aus einer Verknüpfung verschiedener Vorschläge aus der Literatur zusammensetzt und nach den Anforderungen der Brose GmbH & Co. KG validiert worden ist. Zur Erhebung der Kennzahlen haben sich mit analytischen Informationssystemen in unterschiedlichster Ausprägung (z.B. Desicion Support Systems) Ansätze entwickelt, welche automatisiert Daten aus verschiedenen heterogenen Quellen verarbeiten und so eine effiziente Befriedigung des Informationsbedarfes gewährleisten sollen. Fraglich bleibt, ob derartige Systeme auch für den Fertigungsbereich einsetzbar sind, da hier mit Informationsbedarfen nahe dem Echtzeitbereich umgegangen werden muss. Zur näheren Betrachtung dieser Frage werden in der vorliegenden Arbeit mehrere Alternativen einer Analyseinfrastruktur ausgearbeitet und bewertet. Dies geschieht im Umfeld der Brose GmbH & Co. KG, welche derzeit die Einführung eines neuen Manufacturing Execution Systems durchführt und dabei auf die Lösung der SAP AG zurückgreift. Dadurch wird die Konzeption einer geeigneten Infrastruktur möglich, die zusätzlich in einer Show-Case-Implementierung erste Hinweise auf die spätere Einsetzbarkeit gibt. Das dritte Themengebiet dieser Arbeit besteht in der Untersuchung der Geeignetheit von Kennzahlen zur Validierung von Simulationsmodellen. Die Sicherstellung der Übereinstimmung von Simulationsmodellen mit dem Realsystem ist (gerade bei automatisiert erstellten Modellen) eine wesentliche Aufgabe zur Erreichung der Ziele des Simulationseinsatzes. Gleichzeitig ist dieser Schritt als ein großer Aufwandsposten anzusehen, der darüber hinaus Expertenwissen benötigt. Untersucht werden soll durch eine prototypische Modellierung und Kennzahlenerhebung einer Brose-Fertigungslinie, ob es praktikabel ist, Kennzahlen in einem Simulationsmodell zu erheben, mit dem Realsystem zu vergleichen und so auf die Übereinstimmung von Modell und Realität zu schlussfolgern.



Hörseljau, Nils;
Integration der Planungsmethodik Wertstromdesign in den Produktentstehungsprozess der Firma Brose. - 74 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Im wettbewerbsintensiven Markt der Automobilzuliefererindustrie wird es immer wichtiger die wertschöpfenden Produktionssysteme kundenorientiert, aber dennoch kostenoptimal auszurichten. Daher wird das wertstromorientierte Planen im Sinne der schlanken Fabrik auch in größeren Familienunternehmen wie der Brose Fahrzeugteile GmbH & Co. KG immer wichtiger. In diesem Kontext wird ein Planungsleitfaden mit konkreten Gestaltungsrichtlinien zur Planung von Materialfluss- und Fertigungssteuerung inklusive Roll Out Konzept zur Einführung der Methodik erstellt und es erfolgt eine Festlegung der jeweiligen Zuständigkeiten innerhalb des Unternehmens. Darauf aufbauend wird die Methode in einen bestehenden Konzeptentscheid zur Beurteilung der Konzeption aus Sicht des wertstromorientierten Planens unter Berücksichtigung von Kennzahlen wie Fertigungszeiten, Durchlaufzeiten, Reduzierung der Investitionssummen sowie Fertigungs- und Energiekosten eingebunden und die sich daraus ergebenden positiven Effekte herausgearbeitet. Darüber hinaus erfolgt die Vorbereitung zur Einbindung der Planungsmethodik durch die Abstimmung mit der zentralen Organisationsabteilung zur Integration in den Produktentstehungsprozess und die damit verbundene Ausarbeitung notwendiger Dokumente je Planungsphase.



Hofmann, Eric;
Auswertungsmöglichkeiten von Simulationsexperimenten durch logistische Kennzahlen auf Basis von CMSD-Daten - Konzeption und Implementierung eines Web-Statistik-Monitors für Simulationsstudien basierend auf CMSD als Datenaustauschformat. - 122 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Core Manufacturing Simulation Data (CMSD) ist ein Standard zur Beschreibung und den Austausch eines Simulationsmodells. Diese Arbeit prüft CMSD hinsichtlich einer Eignung, Daten für die Auswertung von Simulationsläufen abzubilden. Dazu werden Grundlagen betreffend der Methode "Simulation" gelegt und Kennzahlen für die Fertigung erarbeitet. Auf dieser Basis werden verschiedene Ansätze für die Abbildung auswertungsrelevanter Daten vorgestellt und bewertet. Einer dieser Ansätze wird ausgewählt und prototypisch implementiert. Dabei wird der Ansatz detailliert und um diverse Funktionalitäten erweitert. Das Ergebnis ist einerseits eine Methodensammlung für das Simulationswerkzeug "Plant Simulation", die es erlaubt auswertungsrelevante Daten gemäß dem CMSD Standard zu speichern und andererseits eine Webanwendung, mit der Dokumente im CMSD-Format eingelesen und die enthaltenen auswertungsrelevanten Daten aufbereitet und visualisiert werden können.



Lenz, Fabian;
Entwicklung einer Toolchain für die Produktionsplanung und -steuerung eines mittelständischen Unternehmens der Halbleiterindustrie. - 114 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Immer kürzere Produktlebenszyklen bei rasant anwachsender Variantenvielfalt setzt eine moderne Fertigung mit schneller Lieferfähigkeit und hoher Flexibilität bei den Industrieunternehmen voraus. Neben einem hochflexiblen Produktionsapparat (flexibles Fertigungssystem) bedarf dies auch einer flexiblen Produktionsplanung und -steuerung. Sie muss auf die Besonderheiten neuer Technologien anpassbar sein und auf die Variationen im Produktionsprozess (Auftrags- oder Terminänderungen) problemlos reagieren können. Ziel dieser Masterarbeit war die Entwicklung eines Planungs- und Steuerungskonzepts für einen ausgewählten Produktionssektor in einem KMU, welches unterschiedliche Planungsziele unterstützt. Das existierende Produktionssystem wurde einführend klassifiziert und beschrieben. Ebenso wurden die sich im Einsatz befindlichen Mechanismen zur Produktionsplanung und -steuerung mit Hilfe des Tools Aixperanto abgebildet (Ist-Stand). Als Leitfaden zur Konzeptentwicklung wurde die Strukturierung von Hackstein gewählt. Für die Bereiche mit den entdeckten Verbesserungspotenzialen wurden verschiedene Konzepte und Verfahren beschrieben (BOA, Engpass-Steuerung, Conwip und Konzepte zur Ablaufplanung). Daraus wurden verschiedene Verfahren ausgewählt, die in das Konzept mit eingeflossen sind. Das entwickelte Konzept, stellt eine Handlungsanleitung zur Nutzung der entwickelten Tools dar, mit der eine Steigerung der Fertigungseffizienz in einem KMU erreicht wurde. Gemessen wurde das Konzept an den Zielgrößen Durchlaufzeit und Termintreue. Im Ausblick werden Anregungen für weitere Entwicklungsmöglichkeiten des Konzepts gegeben.



Häfer, Mathias;
Konzept für die Datenqualifikation zur simulationsbasierten Optimierung der Produktionsplanung und -steuerung eines Kleinen und Mittelständischen Unternehmens auf Basis des CMSD-Information Model. - 97 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Komplexe Technologien, variantenreiche Artikel und ein dynamisches Marktumfeld erfordern intelligente Planung, Steuerung und Optimierung der produktionslogistischen Prozesse eines produzierenden Unternehmens. Ein ERP-System bietet zur Unterstützung der PPS typischerweise nur Standardprozesse. Dabei gehen ERP-Systeme von Vergangenheits- und Ist-Werten aus, die zur Planung und Steuerung von Produktionssystemen genutzt werden können. Durch die Dynamik und Komplexität eines Produktionssystems lassen sich somit nur begrenzte Aussagen über die Optimierung von Produktionszielen treffen. In Hinblick auf Dynamik und Komplexität können simulationsbasierte Lösungen ansetzen, um ERP-Systeme zu ergänzen. Für KMUs sind Simulationen zum heutigen Zeitpunkt noch immer sehr kostspielig und zeitaufwendig. Aus diesem Grund müssen für KMUs Konzepte, Methoden und Werkzeuge gefunden werden, um die Vorteile von Simulationen nutzen zu können. Ein Ansatz ist hier die automatische oder teilautomatische Modellgenerierung. Hierfür wurde der von der Simulation Interoperability Standards Organization bereitgestellte Standard Core Manufacturing Simulation Data (CMSD) entwickelt. Ziel der Masterarbeit war es ein unternehmensspezifisches Konzept auf Basis eines bestehenden CMSD-Modellgenerators zu konzipieren und zu implementieren, welches zur simulationsbasierten Planung und Optimierung anhand spezifizierter Anforderungen entwickelt wurde. Besonderen Wert wurde dabei auf die Modellierungsmöglichkeiten von Produktionssystemen gelegt. Um dann aus den modellierten Prozessen des Unternehmens UST Umweltsensortechnik GmbH eine Middleware zu implementieren, welche die Schnittstelle zwischen ERP-System und Simulationsanwendung darstellte. Der CMSD-Standard bildet dabei Basis für die Schnittstelle. Anhand der erzeugten Simulationsmodelle wurden Simulationsläufe durchgeführt und Ergebnisse ausgewertet.



Schubert, Corina;
Schaffung von Standards zur Abbildung von Lagersystemen in Materialflusssimulationen. - 198 S. Ilmenau : Techn. Univ., Masterarbeit, 2012

Die Verwendung von Materialflusssimulationen ist heutzutage bei vielen Unternehmen zum Standard geworden, sie vereinfachen die Planung (im Sinne von Absicherung) und haben eine Reduzierung von Durchlaufzeiten und Beständen zur Folge. Das Ziel der Masterarbeit (Praxisarbeit im Unternehmen Dräxlmaier Group) war die Schaffung eines Standards zur Abbildung von Lagersystemen in Materialflusssimulationen (Plant Simulation). Dies sollte zum einen durch die Erarbeitung einer methodischen Lösung, zum anderen durch Entwicklung und Programmierung einer Softwarelösung geschehen. Dazu wurden zunächst Lagersysteme theoretisch betrachtet und eine Systematik (Überblick) erstellt. Nach Bestandsaufnahme der bei Dräxlmaier verwendeten Lagersysteme konnte ein Konzeptmodell (methodische Lösung) entwickelt werden, was die Anforderungen an den Standard beschreibt. Der Vergleich verschiedener Modellierungsnotationen führte zur Auswahl einer Ereignisgesteuerten Prozesskette (EPK) als geeignete Modellierungsform. Mittels dieser grafischen Darstellung sowie verbaler Erklärung wurde die Implementierung in Plant Simulation dokumentiert. Den Abschluss der Schaffung eines Standards bildeten Verifizierung und Validierung. Dabei konnte durch Gestaltung verschiedener Szenarien, Reflexion auf reale Modelle und Auflistung von Anhaltspunkten bzgl. der angestrebten Standardisierung gezeigt werden, dass der entstandene Lagerbaustein (Softwarelösung) zur Abbildung von Lagersystemen geeignet ist. Er dient der Planungsunterstützung z. B. bei der Dimensionierung von Lagern und hat eine Aufwandsreduzierung bei der Erstellung von Simulationsmodellen zur Folge. Eine Eignung für Nachnutzung ist durch Eigenschaften wie Parametrisierbarkeit (User-Interfaces), Programmierbarkeit (Kommentierung der Methoden, grafische Darstellung durch EPKs) und Modularisierung (Verschachtelung, Netzwerke) gegeben. Zu Beginn der Arbeit definierte Zielsetzungen (Zielsystem der Produktion aus der VDI Richtlinie 3633) sind mit dem Lagerbaustein vereinbar.



Bambl, Stefan;
Neuronale Netze zur Approximation von Steuerstrategien in Simulationsmodellen der Produktion. - 105 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Ziel dieser Masterarbeit war eine Untersuchung, in welchem Umfang eine Annäherung von dynamischem Verhalten in Simulationsmodellen der Produktion mit Hilfe von künstlichen neuronalen Netzen (KNN) möglich ist. Zu diesem Zweck wurden nach der Einleitung (Kapitel 1) im Kapitel 2 die theoretischen Grundlagen zu den KNN besonders herausgearbeitet. Im dritten Kapitel wurde kurz auf die Grundlagen der Simulation eingegangen. Das vierte Kapitel beschäftigt sich mit der Produktionsplanung und -steuerung, im Detail mit den Bereichen Belastungs- und Reihenfolgeplanung. - Der praktische Teil der Arbeit befasst sich mit der Durchführung von Experimenten in Matlab® und Plant Simulation. Dieser Teil der Arbeit gliedert sich in drei Kapitel. Im einleitenden fünften Kapitel wurden der allgemeine Versuchsaufbau und die -durchführung näher beleuchtet. Um eine Aussage über die optimale Konfiguration des KNN, hier speziell Multilayer Perzeptron (MLP), treffen zu können, wurden Vorversuche zu diesem Thema in Matlab® durchgeführt und die Ergebnisse in einem Fazit zusammengefasst (Kapitel 6). Im siebten Kapitel wurden zu ausgewählten Prioritätsregeln Versuche in Plant Simulation durchgeführt. Dafür wurden zwei Modelle aufgebaut, einmal mit und einmal ohne KNN-Anbindung. Zur Auswertung der Güte der Annäherung durch das KNN wurde ein Kennzahlenvergleich herangezogen. Im abschließenden Kapitel 8 wurde in einem Resümee die Arbeit zusammengefasst und ein Ausblick auf mögliche Erweiterungsmöglichkeiten gegeben.



Reimann, Christopher;
Digitale Absicherung flexibler Bauteile im Kontext der Produktionsvorbereitung. - 101 S. : Ilmenau, Techn. Univ., Masterarbeit, 2011

Zielstellung der Arbeit ist die Untersuchung von Möglichkeiten zur digitalen Absicherung flexibler Bauteile im Kontext der Produktionsvorbereitung. Dabei wird das Ziel verfolgt, einen Workflow zur Absicherung flexibler Bauteile zu etablieren. Des Weiteren werden entsprechende Werkzeuge zur Simulation flexibler Bauteile auf ihre Möglichkeiten geprüft. Die Arbeit gliedert sich in fünf Teile. Im ersten Teil werden die theoretischen Grundlagen dargestellt. Hierbei werden grundlegende Begrifflichkeiten, wie der Produktentstehungsprozess, die Digitale Fabrik und die Montageplanung erläutert. Anschließend werden die Grundlagen und Anforderungen der digitalen Absicherung flexibler Bauteile dargestellt. Es werden verschiedene Modellierungsansätze zur Simulation flexibler Bauteile vorgestellt. Aufbauend darauf werden die zwei Werkzeuge IDO:Flexible und IPS Cable Simulation, die zur Simulation flexibler Bauteile verwendet werden, dargestellt. Der zweite Teil der Arbeit untersucht die Systemlandschaft der Daimler AG im Bezug auf die digitale Absicherung flexibler Bauteile. Im dritten Teil wird ein zukünftiger Workflow zur digitalen Produktionsabsicherung unter Berücksichtigung der Absicherung flexibler Bauteile erarbeitet. Der vorgeschlagene Workflow wird anhand von Use Cases evaluiert. Im vierten Teil der Arbeit werden die beiden Absicherungswerkzeuge anhand von vorher definierten Kriterien bewertet. Die Bewertung unterteilt sich in die Sichten: ITSicht, Anwendersicht und Absicherungssicht. Darauf aufbauend werden Entwicklungsbedarfe für das Werkzeug IPS Cable Simulation dokumentiert und ein spezifischer Workflow zur Verwendung von IPS Cable Simulation dargestellt. Im Ausblick der Arbeit wird eine abschließende Betrachtung und Handlungsempfehlung für ein zukünftiges Vorgehen erläutert.



Klee, Andreas;
Kopplung eines Fuzzy Expertensystems mit dem Simulationstool Plant Simulation zum wissensbasierten Scheduling von Fertigungssystemen. - 154 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Das Scheduling in Produktionssystemen ist ein aufwendiger Prozess. Der Aufwand zur Erstellung eines Ablaufplans ist von dem zugrunde liegenden Scheduling-Problem abhängig. Eine Optimierung aller für ein Unternehmen wichtigen Ziele in der Produktionsplanung ist aufgrund des "Dilemmas der Ablaufplanung" nicht möglich. Mit Heuristiken lassen sich gute Ergebnisse für einzelne Ziele ermitteln. Durch den Einsatz von Softcomputing Methoden wird versucht bessere Ergebnisse zu erzielen. - Diese Arbeit erläutert zunächst das Konzept der Fuzzy-Theorie, die ein Hauptbestandteil des Softcomputing ist und wissensbasierte Systeme. Darauf aufbauend werden verschiedene wissensbasierte Systeme untersucht sowie Konzepte entwickelt, um die Nachteile einzelner Systeme auszugleichen. Anschließend erfolgt die Analyse und Implementierung einer Schnittstelle zu Kopplung an das Simulationstool Plant Simulation. - Ein wesentliches Ziel dieser Arbeit ist es, einen Prototypen zu entwickeln, der diese Konzepte als Funktionen implementiert. Dabei handelt es sich um die Entwicklung einer Software in die eine Expertensystem-Shell integriert und durch genetische Algorithmen erweitert wird. Dort soll die Möglichkeit geschaffen werden, Regeln für eine Wissensbasis zu generieren und diese mit Hilfe von Simulationsläufen anzupassen. - Zum Testen der Funktionalität erfolgt die Anbindung an ein Modell in Plant Simulation und der Vergleich mit bewährten Heuristiken.



Rüger, Carsten;
Untersuchung und Berechnung einer Losgrößenplanung mit Kapazitätsrestriktion und Erstellung eines gültigen Maschinenbelegungsplans am Beispiel einer diskreten Fertigung. - 110 S. Ilmenau : Techn. Univ., Masterarbeit, 2011

Die Masterarbeit befasst sich mit der Losgrößenplanung unter Kapazitätsrestriktionen anhand der diskreten Fertigung der Stahlsynchronringproduktion der Diehl Metall Stiftung & CO. KG Unternehmenseinheit Schmiedetechnik. Zunächst wird der aktuelle Stand der Literatur der Losgrößenplanung untersucht. Eine Analyse der Fertigungsstrukturen und der Fertigungsplanung erfolgt im Anschluss, um daraus ein geeignetes Verfahren zur Berechnung der Losgrößenproblematik für die spezielle diskrete Fertigung zu ermitteln. Für dieses Lösungsverfahren dienen im Anschluss die analysierten Fertigungsstrukturen als Datengrundlage zur Berechnung von Losgrößen unter der Beachtung der vorhandenen Kapazitäten. Die Entscheidung zur Bildung von wirtschaftlich optimalen Losgrößen wird aufgrund von Kostenbetrachtungen durchgeführt. Dabei werden die Rüst- und Lagerkosten miteinander abgeglichen. Die Berechnung der optimalen Losgrößen erfolgt in einem externen programmierten Tool, das alle notwendigen planerischen Daten verrechnet. Dieses soll dem Fertigungsplaner als Entscheidungsunterstützung während der Erstellung von Fertigungsaufträgen mit optimierten Losgrößen dienen. Gegen Ende der Arbeit wird das Ergebnis der Berechnung mit der aktuell durchgeführten Fertigungsplanung verglichen und Vor- bzw. Nachteile aufgezeigt.



Klemm, Roland;
Automatische Modellgenerierung in der Materialflusssimulation. - 139 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Das vergangene Jahrhundert war gekennzeichnet durch einen eruptiven technologischen Wandel der die Rahmenbedingungen, unter denen produzierende Unternehmen ihre Fabrik- und Fertigungsplanung vornehmen veränderte. Dadurch steigt die Komplexität der Planungsaufgaben stetig an. Um diese Komplexität der Planung beherrschen zu können, müssen neue Methoden und Werkzeuge zur Planung und Optimierung von Fertigungssystemen verwendet werden. Ein besonders etabliertes Werkzeug zur Modellierung, Analyse und Bewertung dynamischer und komplexer Zusammenhänge von Fertigungssystemen ist die Materialflusssimulation. Diese kann sowohl planungsbegleitend während der Grobplanungsphase und Feinplanungsphase eingesetzt werden, als auch betriebsbegleitend zur Optimierung bereits vorhandener Fertigungssysteme. Der Aufwand einer Simulationsstudie ist allerdings auch mit den heute leistungsfähigen Softwareprogrammen für die Materialflusssimulation noch sehr hoch, da die Materialflusssimulation bislang noch nicht vollständig in die Digitale Fabrik integriert wurde. Dieser Umstand erschwert zusätzlich die Bestrebungen, Simulationsmodelle automatisch zu generieren. Ein automatisierter Simulationsmodellaufbau ist jedoch zwingend notwendig, um einen konsequenten Einsatz der Materialflusssimulation als Instrument zur Analyse und Bewertung von Fertigungssystemen gewährleisten zu können. Denn nur eine deutliche Reduktion des Aufwandes und eine Verkürzung der Dauer einer Simulationsstudie führen zu einem konsequenten Einsatz der Materialflusssimulation. Nur so können die erheblichen Nutzenpotenziale der Materialflusssimulation gewinnbringend in die Planung neuer oder in die Optimierung bestehender Fertigungssysteme eingebracht werden. Ziel dieser Arbeit ist es, den aktuellen Stand der Forschung auf dem Gebiet zur automatischen Modellgenerierung in der Materialflusssimulation wiederzugeben. Dazu wurden durch eine Literaturrecherche bedeutende Ansätze zur automatisierten Modellgenerierung identifiziert. Neben der Beschreibung der verwendeten Methodik der verschiedenen Ansätze werden Klassifikationskriterien identifiziert, die eine genaue Klassifizierung der Ansätze erlauben und einen Vergleich von Ansätzen ermöglichen.



Steinfurth, Jan;
Emulation von Produktionssystemen mittels Simulation - Prototypische Implementierung einer Kopplung zwischen ADICOM.MES und Plant Simulation. - 87 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Die Einführung neuer Software für die Überwachung und Steuerung der Produktion stellt Unternehmen immer wieder vor eine enorme zeitliche und kostenintensive Belastung. Dies ist vor allem mit dem Testaufwand vor Ort und den Produktionsausfällen verbunden. Um die Dauer und Kosten der Einführungsphase zu reduzieren müssen Tests in einem realitätsnahen Umfeld durchgeführt werden. Dazu muss eine Umgebung geschaffen werden in der das MES unter realitätsnahen Bedingungen getestet werden kann. Die Verwendung einer emulierten Fabrik ist eine Möglichkeit um eine geeignete Testumgebung zu schaffen. Diese Arbeit beschreibt die Herangehensweise und die Umsetzung einer emulierten Produktionslinie, welche in der Lage ist das Verhalten einer realen Produktionslinie nachzuahmen.



Pohlmann, Christopher;
ERP übergreifende Entscheidungsunterstützung für Personalplanungsprozesse in Produktionsbereichen von KMU. - 126 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Steigende Komplexität innerhalb eines Produktionsablaufes sowie interne Abhängigkeiten in einer Produktion und externe Einflüsse stellen zunehmend erhöhte Anforderungen an die quantitative, qualitative, temporäre und lokale Zuordnung von Personal. Eine flexible Planung des Personaleinsatzes ist für eine wirtschaftliche Zielerreichung eines Unternehmens nicht mehr wegzudenken. Bestehende PPS-Systeme konzentrieren sich hauptsächlich auf die Bedürfnisse von Großunternehmen. Die Lösungen mit denen kleinere und mittelständige Unternehmen arbeiten, sind meist kleine selbstentwickelte Ideen mit denen die Planung mit viel zeitlichem Aufwand bewältigt werden kann. Eine Planungssicherheit können diese Lösungen nur sehr selten gewährleisten. Ziel der Arbeit war es, durch eine Untersuchung vier verschiedener Planungsprozesse aus der Praxis, Entscheidungsprozesse in der Personaleinsatzplanung zu systematisieren und zu modellieren. Dabei sollten Planungsrelevante Objekte und Datenquellen erfasst und miteinander verglichen werden. Der Vergleich der Planungsprozesse und die Ausarbeitung eines Konzeptes für eine IT- gestützte Personaleinsatzplanung zeigen, dass einzelne Abläufe in vergleichbarer Form in allen Prozessmodellen wiederkehren. Alle Prozesse zeichnen sich durch einen hohen Grad an Automatisierbarkeit ab. Die Einführung einer softwaregestützten Planung, welche den Anwender durch den Prozess führt, erscheint am sinnvollsten. Eine einheitliche Softwarelösung im Sinne einer Standardsoftware für alle Unternehmen scheitert jedoch an den im Detail verborgenen Anforderungen und Planungsphilosophien der Unternehmen. Eine modulare Planungslösung die eine flexible Planung zulässt und somit für verschiedenste Branchen wiederverwendet werden kann, sollte das Ziel künftiger Entwicklungen sein.



Haertel, Andreas;
Schaffung eines einheitlichen, standardisierten Handhabungsprozesses von produktionssteuernden Daten anhand der Einführung von Teamcenter. - 80 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Um auf einem dynamischen Markt bestehen zu können, müssen Unternehmen innovative Produkte in immer kürzeren Zyklen, zu geringeren Kosten als die Vorgängerprodukte auf den Markt bringen. Um dies zu realisieren zu können wird seit längerem verstärkt auf die Unterstützung von IT-Systemen zur Entwicklung, Planung und Fertigung der Produkte gesetzt. Diese Systeme arbeiten meist voneinander unabhängig und haben daher keine einheitliche Datenbasis, was zu inkonsistenten Informationen führen kann. Um dies zu verhindern setzt das Konzept des Product Lifecycle Managements (PLM) auf eine Vernetzung der verwendeten IT-Systeme, in dem sie vor allem eine einheitliche Datenbasis nutzen. In diesem Kontext beschäftigt sich die Arbeit mit der Einführung von Teamcenter als PLM-Software bei Siemens in Amberg. Dazu wird die bisherige Systemlandschaft aus Sicht der Fertigungsplanung analysiert. Auf Basis der Analyse wird ein Konzept ausgearbeitet, wie sich nach der Teamcenter Einführung der Informationsfluss der Produktdaten aus der Entwicklung über die Fertigungsplanung an die Fertigung gestalten kann. Die dabei gewonnenen Erkenntnisse fließen in die Projekte ein, die sich mit der Umsetzung der Teamcentereinführung beschäftigen.



Heinsius, Matthias;
Automatisierte Koppelung von Simulation und Optimierung - Implentierung und Test eines integrierten Simulations- und Optimierungsansatzes für das Supply Chain Management. - 97 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

In dieser Arbeit wird ein hybrider Ansatz zur Optimierung von Prozessen in Supply Chains vorgestellt. Dafür wird GLPK, ein System für die ganzzahlige lineare Optimierung, und die diskrete, ereignisorientierte Simulationssoftware Tecnomatix PlantSimulation gekoppelt. Es werden Daten und Schnittstellen untersucht und ein Metamodell für die Beschreibung von Supply Chains vorgestellt, aus dem sich sowohl Simulationsmodelle als auch Optimierungsmodelle ableiten lassen.



Höber, Christian;
Exceptionsbasiertes MES als Regelungsansatz für Produktions- und Logistiksysteme. - 129 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

Gegenstand dieser Arbeit ist es im Rahmen einer Pilotprojektierung ein Konzept zur automatisierten reaktiven Feinplanung von Produktionsprozessen, ausgelöst durch Regelabweichungen (Exceptions), zu entwickeln und dieses anhand eines Simulationsmodells zu testen und zu bewerten. In Anbetracht dieser Aufgabenstellung werden zunächst die grundlegenden Anforderungen eines solchen Fertigungsmanagementsystems erarbeitet. Es wird hierzu auf die Besonderheiten der Fertigungsregelung sowie der IT-Unterstützung im Produktionsverlauf eingegangen. Als softwaretechnische Umsetzungsformen werden besonders die Systemlösungen des Manufacturing Execution System in den Mittelpunkt der Betrachtung gestellt. Deren grundlegenden Funktionalitäten und Ausgestaltungsformen bilden im weiteren Verlauf die Ausgangslage für den der Arbeit zugrunde gelegten Konzeptentwurf und somit für die Realisierung eines automatisierten, reaktiven Störungsmanagements, welches bei dem Auftreten bestimmter Fertigungssituationen selbstständig Neuplanungsprozesse auslöst. Der grundlegende Konzeptaufbau, bestehend aus den Komponenten der Produktionsdokumentation, Leistungsanalyse, Produktionsfeinplanung und -steuerung, wird in der Folge in eine modellhafte Umsetzungsform überführt und anhand ausgewählter Beispielszenarien getestet. Anschließend werden die Reaktionen der entwickelten Systemlösung in den jeweiligen Szenarios untersucht und bezüglich der an sie gestellten Forderungen sowie den allgemeinen logistischen Leistungskenngrößen bewertet. Desweiteren wird auf aufgetretene Fehlerpotentiale und auf zukünftige Entwicklungschancen eingegangen.



Liebmann, Sabine;
Anbindung von Digitaler Fabrik an die Virtual Reality. - 45 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Diese Arbeit befasst sich mit der Zusammenführung zweier unabhängiger Systeme. Zum einen der digitalen Fabrik und dem damit verbundenen digitalen Planen und Simulieren von Produktionsabläufen und zum anderen der Darstellung von 3D-Inhalten in einer Virtual Reality. Es wird direkt Bezug auf die vorhandenen Gegebenheiten der TU Ilmenau genommen. Das Fachgebiet Wirtschaftsinformatik 1 verfügt über die Software Tecnomatix Plant Simulation von Siemens PLM. Diese soll zum Erstellen eines Modells einer digitalen Fabrik dienen. Das Modell ist dann Grundlage der 3D Darstellung des Ablaufes in der Fabrikplanung und kann schon im Programm in einer 3D-Ansicht simuliert werden. Es werden Engpässe sichtlich und es können statistische Erhebungen simuliert werden, welche die Optimierung der geplanten Abläufe ermöglich. Ziel der Arbeit ist es dieses Modell in seiner 3D-Ansicht in die virtuelle Realität der Umgebung der CAVE des Kompetenzzentrums Virtual Reality der TU Ilmenau zu übertragen. Die CAVE ist eine Einrichtung zur virtuellen Wiedergabe von 3D Inhalten auf 3 Leinwänden. Mit Hilfe von Stereoprojektion und speziellen Frequenzbrillen lässt sich die Illusion einer realen Umgebung aufbauen. Der Nutzer kann dort das Modell virtuell durchlaufen und geplante Anlagen schon vor Bau betreten. Der Export von 3D-Daten aus Plant Simulation ist nicht möglich. Daraus ergibt sich der Lösungsansatz, alle Bewegungsinformationen und Bewegungspfade in Virtual Design 2 zu implementieren. Aus Plant Simulation werden dann nur Zeitpunkte und Namen der beteiligten Objekte übermittelt.



Fiedler, Alexander;
Automatisierte Generierung von Simulationsmodellen unter Verwendung des Core Manufacturing Simulation Data (CMSD) Information Model - Implementierung eines Pilotszenarios. - Online-Ressource (PDF: 91 S., 3,52 MB) Ilmenau : Techn. Univ., Diplomarbeit, 2010

Aufgrund verkürzter Produktlebenszyklen und gleichzeitig gestiegener Planungskomplexität besteht für Unternehmen des produzierenden Gewerbes die Notwendigkeit, die Planungsprozesse zur Erstellung und dem Betrieb der Produktionseinrichtungen zu verbessern. Eine Möglichkeit zur Verwirklichung der Ziele nach steigender Planungsqualität und -sicherheit und dabei verringerten Planungsdauer und -aufwand, ist der Einsatz planungs- bzw. betriebsbegleitender Ablaufsimulationen. Voraussetzung hierfür ist die Integration der Simulation in das Umfeld der betrieblichen Anwendungssysteme der Planung und Fertigungssteuerung sowie die Reduzierung des Aufwandes zur Erstellung der Simulationsmodelle, was u. a. durch eine automatisierte Generierung erreicht werden soll. Die Anbindung der Simulationssysteme durch leistungsstarke und flexible Schnittstellen ist heutzutage noch nicht zufriedenstellend gelöst und behindert somit den konsequenten Einsatz der Simulationstechnik. Um dem Problem der unzureichenden Schnittstellenanbindungen entgegenzutreten, entstand in mehrjähriger Arbeit das "Core Manufacturing Simulation Data" (CMSD) Information Model. Dieses definiert eine Spezifikation für Kerndaten von Fertigungssimulationen. Mithilfe der im CMSD Information Model enthaltenen Datenstrukturen können Modellbeschreibungen für simulationsrelevante Daten formuliert und für den Datenaustausch genutzt werden. Als Datenaustauschformat findet das XML-Format Verwendung. Im Rahmen dieser Arbeit wird das CMSD Information Model auf die Nutzbarkeit zur Abbildung simulationsrelevanter Eingangsdaten für Ablaufsimulationen im fertigungstechnischen Umfeld hin untersucht. Dies geschieht anhand einer prototypischen Umsetzung eines automatisierten Simulationsmodellgenerators und eines konkreten, fiktiven Anwendungsbeispiels einer Werkstattfertigung. Die für das Beispiel benötigten Eingangsdaten werden mithilfe der Datenstrukturen des CMSD Information Model abgebildet und mittels Datenimport dem Modellgenerator zur Verfügung gestellt. Anschließend erfolgt ein automatisierter Modellaufbau. Darüber hinaus werden Anregungen zu Erweiterungen der prototypischen Umsetzung gegeben, um eine umfassende Anwendungslösung zu erreichen, welche zur Untersuchung des betriebsbegleitenden Einsatzes geeignet ist.


http://nbn-resolving.de/urn:nbn:de:gbv:ilm1-2010200290

Steinbach, Matthias;
Mustererkennung in Produktionsdaten - Anwendungsmöglichkeiten und Techniken. - 98 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Die vorliegende Arbeit untersucht die Einsatzmöglichkeiten von Mustererkennungs- und Data-Mining-Verfahren für die Untersuchung von Produktionsdaten. Dabei beginnen die Betrachtungen mit der Beschreibung des aktuellen technologischen Entwicklungsstandes und der Darlegung eventueller Potentiale und Anwendungsmöglichkeiten für einen Einsatz von Data-Mining und Mustererkennungsverfahren in produzierenden Unternehmen. Der Hauptteil der Arbeit umfasst die Entwicklung und den Einsatz von Methoden, um anhand von generierten Produktionsdaten (BDE/MDE-Daten) Muster zu erkennen, die es erlauben auf mögliche Fertigungsstrategien zu schließen. Dabei werden die durch Plant Simulation erzeugten Produktionsdaten in einem eigens entwickelten Analyse-Tool verarbeitet und mit Hilfe einer Clusteranalyse, einer Assoziationsanalyse und eines Entscheidungsbaumverfahrens auf auftretende Muster untersucht. Dadurch wurde es möglich signifikante Muster in den Daten und den Ergebnissen der genutzten Data-Mining-Verfahren zu erkennen und auf die verwendete Fertigungsstrategie zu schließen.



Mahler, Juliane;
Dispositionsstrategien - Konzeption und Umsetzung eines SAP-Dispositionsparameter-Controllings zur Bestandsoptimierung. - 126 S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Aufgrund des hohen Wettbewerbsdrucks haben Unternehmen das Bestreben, mit möglichst geringen Lagerbeständen trotzdem einen hohen Servicegrad zur Befriedigung der Kundenbedürfnisse erreichen zu können. Dies hat eine höhere Liquidität und geringere Kapitalbindungskosten zur Folge. In der vorliegenden Arbeit soll deshalb die Frage geklärt werden, wie die Dispositionsparameter einer SAP-gestützten Materialdisposition eingestellt werden müssen, damit Lagerbestände nachhaltig gesenkt werden können, ohne die Lieferbereitschaft zu gefährden. Dazu werden zunächst verschiedene der Materialwirtschaft zugrundeliegende Dispositionsstrategien erörtert und anhand ihrer Eigenschaften grob den Clustern einer ABC/XYZ-Klassifizierung der Materialien zugeordnet. Im nächsten Schritt werden weitere Einflusskriterien definiert, anhand derer die genaue Festlegung der Dispositionsstrategie und gleichzeitig die materialspezifische Zuweisung der konkreten Einstellgrößen der SAP-Parameter erfolgt. Abschließend wird - basierend auf Microsoft Access - das Konzept für ein Tool entworfen, welches die automatische Ermittlung optimaler Dispositionsparameter auf Basis der verschiedenen Eigenschaften eines ausgewählten Materials ermöglicht.



Schulz, Andreas;
Untersuchung von Reinforcement-basierten und Neuroevolutionsverfahren in der simulationsbasierten Optimierung. - 114S. Ilmenau : Techn. Univ., Diplomarbeit, 2010

Um mittels der simulationsbasierten Optimierung komplexe, kombinatorische Entscheidungsprobleme, welche z. B. bei der Planung und Steuerung der Produktion vorherrschen lösen zu können, kommen häufig heuristische Optimierungsverfahren zum Einsatz. Diese ermöglichen es mit realverträglichem Zeit- und Kostenaufwand Lösungen für die zugrunde liegende Fragestellung zu finden, haben allerdings den Nachteil, dass die Qualität der gefundenen Lösungen oft nicht abschätzbar und großen Schwankungen unterlegen ist (vgl. [FR06, S. 2 ff.]). In dieser Arbeit wird deshalb untersucht, ob der NEAT-Algorithmus (Neuroevolution through Augmenting Topologies), welcher von Kenneth O. Stanley und Risto Miikkulainen für die Lösung von Reinforcementproblemen entwickelt wurde, in der Lage ist, für komplexe, realitätsnahe Entscheidungsprobleme optimale Lösungen zu finden und er sich somit für den Einsatz im Rahmen der simulationsbasierten Optimierung eignet. Hierfür wurde ein operatives Maschinenbelegungsproblem in einem Job-Shop-Produktionssystem modelliert, wobei kosten- und zeitorientierte Kriterien minimiert werden sollten. Zudem wurde eine geeignete Testumgebung entwickelt und eine Reihe von Versuchen durchgeführt. Die Ergebnisse der mit dem NEAT-Algorithmus erfolgten Experimente wurden heuristisch ermittelten Resultaten gegenübergestellt und haben gezeigt, dass der NEAT-Algorithmus in der Lage ist, bessere Lösungen als die heuristische Vorgehensweise zu finden. Allerdings hat die Untersuchung auch ergeben, dass die Anwendung des NEAT-Algorithmus mit deutlich höherem Zeit- und Rechenaufwand verbunden ist, wodurch dessen Anwendung als Optimierungsverfahren im Rahmen der simulationsbasierten Optimierung im Kontext des zu lösenden Optimierungsproblems unter Kosten- und Nutzengesichtspunkten im Einzelfall zu prüfen ist. Abschließend werden einige Fragen aufgegriffen, die in dieser Arbeit nicht beantwortet werden konnten, aber zu interessanten Erkenntnisse führen können.



Meyer, Torben;
Planungsbegleitende Durchführung einer Belieferungssimulation zur Unterstützung der Intralogistik in der Automobilindustrie. - 95 S. Ilmenau : Techn. Univ., Masterarbeit, 2010

Vor dem Hintergrund zunehmender Komplexität in der Intralogistik kommt der Absicherung der Logistikplanung eine immer größere Bedeutung zu. In der Automobilindustrie werden zum Zwecke der Planungsabsicherung des Material- und Informationsflusses sogenannte Belieferungssimulationen durchgeführt, die sich durch einen hohen Detaillierungsgrad und eine geringe Wiederverwendbarkeit auszeichnen. - Der Aufwand des Simulationsexperten liegt dabei schwerpunktmäßig in den Bereichen der Datenbeschaffung und Datenvalidierung. Aus diesem Grund fokussiert diese Arbeit die Integration der Simulation in die Digitalen Fabrik und die Anwendung einer teilautomatischen Modellgenerierung. In einem integrierten Vorgehensmodell zur Erstellung einer planungsbegleitenden Belieferungssimulation werden Methoden zur Effizienzsteigerung vorgestellt. - Da die Informationen der Logistikplanung nicht vollständig sind oder keine ausreichende Datenqualität aufweisen, wird das zusätzliche Wissen des Simulationsexperten in einem semantischen Netz gesichert. Im Kontext der planungsbegleitenden (also mehrfach durchzuführenden) Belieferungssimulation kann die Wiederverwendbarkeit dieses Wissens signifikant gesteigert werden. Zur Unterstützung der Simulation werden darüber hinaus Standards aus der Intralogistik verwendet und durch einen speziellen Bausteinkasten unterstützt.



Kummer, Lukas;
Integrierte Software Lösung zur Optimierung der Rohbau Konfiguration. - 70 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

In dieser Arbeit wurde das Konzept eines Konfigurators in der Rohbauplanung vorgestellt. Mit Hilfe des Konfigurators ist der Rohbauplaner in der Lage schneller Merkmale, Austaktung und viele weitere Eigenschaften/Aufgaben zu erfassen.



Albrecht, Michael;
Interoperabilität von Simulationssoftware und betriebswirtschaftlicher Standardsoftware im Kontext der Planung und Simulation der Produktion. - 152 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Interoperabilität von Softwaresystemen im direkten Produktionsumfeld ist einerseits ein wünschenswertes Ziel, andererseits aber auch eine notwendige Voraussetzung für die problemslose Wahrnehmung der Planungs- und Produktionsaufgaben industrieller Unternehmen. In den letzten Jahren wurde eine Vielzahl von Softwareapplikationen für die unterschiedlichsten Unternehmensbereiche entwickelt. Diese haben die Aufgabe die einzelnen Funktionen der Betriebsbereiche rechentechnisch zu unterstützen und somit die Planungs- und Ausführungsabläufe zu beschleunigen. Dies ist prinzipiell jedoch nur möglich, wenn nicht nur die Interaktion mit den Systemnutzern optimiert wird, sondern auch die Kommunikation und der Datenaustausch zwischen den betreffenden Systemen. Zu diesem Zweck existieren verschiedene Standardisierungskonzepte, die die Grundlage für die Zusammenarbeit heterogener Softwaresysteme darstellen. Sie definieren einheitliche Regeln und Rahmenbedingungen für den Austausch von Informationen innerhalb sowie zwischen den unterschiedlichen Unternehmensbereichen und den beteiligten Anwendungssystemen. Die Einführung und Nutzung derartiger Konzepte ist ein maßgeblicher Faktor bei der Aufrechterhaltung der Wirtschaftlichkeit und Konkurrenzfähigkeit von produzierenden, industriellen Unternehmen. - Das Ziel dieser Arbeit ist es, die Möglichkeiten der Integration und Interoperabilität von Softwaresystemen im direkten Produktionsumfeld aufzuzeigen und dabei auf konkrete Standardisierungskonzepte für den innerbetrieblichen Informationsaustausch einzugehen. Im Rahmen dieser Arbeit werden deshalb verschiedene Standardsoftwaresysteme vorgestellt und deren Schnittstellen zu anderen Unternehmensbereichen, vor allem aber zur Simulation, identifiziert. Davon ausgehend sollen unterschiedliche Standardisierungskonzepte erläutert und hinsichtlich ihres Beitrags zur Integration und Interoperabilität von Softwaresystemen analysiert werden. Dazu werden entsprechende Bewertungskriterien formuliert und auf die einzelnen Konzepte angewendet. Somit wird deren Leistung bezüglich der Bewertungskategorien durch konkrete Zahlenwerte ausgedrückt. Diese werden anschließend zu einem Gesamtbewertungsergebnis zusammengefasst. Die Gegenüberstellung dieser Ergebnisse soll die Aufstellung einer Rangliste ermöglichen, welche den Beitrag der einzelnen Standardisierungskonzepte zur Interoperabilität von Softwaresystemen im direkten Produktionsumfeld verdeutlicht. Das endgültige Ziel der Arbeit besteht in der Auswahl eines so genannten Best-Practise Kandidaten, also jenem Konzept, welches den größten Interoperabilitätsbeitrag liefert.



Gratias, René;
Die Digitale Fabrik in klein- und mittelständischen Unternehmen - Potentiale, Skalierung und Einführungskonzepte. - 119 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Digitale Fabrik bietet vielfältige Vorteile in der Fertigungsplanung und der Produktion. Die Einführung und Nutzung ist jedoch insbesondere für klein- und mittelständische Unternehmen (KMU) mit erheblichen Problemen verbunden. Im Rahmen der Arbeit werden ausgehend vom Stand der Fertigungsplanung die Probleme bei der Einführung und Nutzung der Digitalen Fabrik identifiziert. Anschließend werden Konzepte zur Einführung und Nutzung der Digitalen Fabrik, die insbesondere auf KMU zugeschnitten sind, vorgestellt. Einen Schwerpunkt stellt dabei das Konzept zur Skalierung der Digitalen Fabrik dar. Dabei wird durch die Bewertung der potentiell einsetzbaren Softwarewerkzeuge der wirtschaftliche und strategische Nutzen der Digitalen Fabrik für ein Unternehmen abgeschätzt. Dabei kommen sowohl objektive als auch subjektive Bewertungskriterien. Durch die Integration dieser Bewertungskriterien können dann zielgerichtet Softwarewerkzeuge ausgewählt und im Unternehmen eingesetzt werden.



Xie, Yanyan;
Integrierter Simulations- und Optimierungsansatz für das Supply Chain Management. - 97 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Das Management der Supply Chain wird mehr und mehr eine wichtige und anspruchsvolle Aufgabe der Unternehmen sein sowohl in der Literatur als auch in der Praxis. Diskret ereignisorientierte Simulationen und linear Programming (LP)-Algorithmen werden im Allgemeinen für die Supply Chain-Planung verwendet. In dieser Diplomarbeit wird eine neue Lösungsmethode dargestellt, die die analytische LP-Optimierung und die Simulation kombiniert. Das LP-Optimierungsmodell wurde für ein allgemeines Supply Chain-Netzwerk abgebildet und mittels Optimierungssoftware GNU Linear Programming KIT implementiert. Zur Simulation wurde die Struktur des Supply Chain-Netzwerks als festgelegtes Szenario betrachtet. Das Simulationsmodell enthält alle Akteure eines Supply Chain-Netzwerks und die nicht linearen Elemente. Das Simulationsmodell wurde mit Hilfe des Simulationswerkzeugs Tecnomatix Plant Simulation 8.2 implementiert. Die Kopplung zwischen den beiden Modellen erfolgt über Microsoft Excel oder den Editor, die dem Informationsaustausch zwischen der Simulation und der Optimierung dienen. Die Lösung des Optimierungsmodells wird als Produktions- und Lieferplan in Simulationsmodell verwendet. Dann können weitere Simulationsexperimente durchgeführt werden. Die Testbeispiele in der Arbeit haben gezeigt, dass dieser Ansatz eine raschere Berechnung der optimalen Lösung liefert und vorteilhafter als die herkömmlichen Lösungsmethoden (einzelne Simulationsmethode und einzelne Optimierungsmethode) ist. Dieser Lösungsansatz scheint für in der Praxis ähnliche Testfälle anwendbar und sinnvoll zu sein.



Wiktor, Samuel-Matthias;
Implementierung eines Prozesses für die software gestütze Berichterstellung mit Hilfe von Textbausteinen für Qualitätsaudits nach DIN EN ISO 9001. - 103 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Audits stellen ein Kernelement der Qualifizierung von Abläufen in Unternehmen nach der ISO9001 dar. Der Prozess zur Berichterstellung für interne und externe Audits werden im Rahmen dieser Arbeit untersucht und optimiert. Ziel war es, den Prozess mit Hilfe einer MS Access Anwendung vollständig zu digitalisieren. Die zu entwickelte Anwendung erleichtert die Erstellung der Berichte. Die Erfordernisse von internen und externen Audits wurden dabei ebenso berücksichtigt wie die Unterschiede zwischen System-, Prozess- und Produktaudits. Weiterhin nutzt das System die Daten der bestehenden Lieferantenverwaltung. Für eine effektive Berichterstellung, werden dem Benutzer für möglichst viele Themenfelder Textbausteine zur Verfügung gestellt. Um der inhaltlichen Komplexität der Auditberichte gerecht zu werden, wurde außerdem die Möglichkeit der individuellen Eingabe von Texten ("Freitext") vorgesehen. Die Freitexte werden ebenfalls temporär im System gespeichert und sollten auf Übernahme in den Bestand der Textbausteine geprüft werden. Der Aufwand für die Administration der Datenbank, insbesondere der Verwaltung der Textbausteine, sollte möglichst gering gehalten werden. Es wurde daher versucht Bewertungskriterien für die Güte der Textbausteine zu finden. Im Rahmen dieser Arbeit wurde darüber hinaus untersucht, ob mit Hilfe evolutionärer Algorithmen eine Reduktion des Administrationsaufwands erreichbar ist. Besonders die Möglichkeiten der automatisierten Übernahme von Freitexten in den Bestand und die Streichung nicht verwendeter Textbausteine wurden untersucht.



Kirschke, Kristin;
Simulationsbasierte Optimierung von Planungs- und Steuerungsstrategien im Supply Chain Management. - 134 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Im Rahmen dieser Diplomarbeit wurde ein Simulationsmodell unter Verwendung des Simulationsprogramms Plant Simulation von Tecnomatix angefertigt, welches der Untersuchung und Optimierung von Prozessen in einem konkreten Supply Chain-Modell dient. Neben der Abbildung der Beschaffungs- und Distributionsprozesse innerhalb der Supply Chain liegt der besondere Fokus auf der detaillierten Modellierung von Produktionsprozessen. Dabei wurde insbesondere die Ermittlung geeigneter Losgrößen, bei Existenz von Rüstzeiten und -kosten, im Zusammenhang mit dem Treffen von Scheduling-Entscheidungen im Rahmen einer mehrstufigen Fertigung umgesetzt. Das Supply Chain-Modell, welches im Sinne einer Experimentierplattform angelegt wurde, kann zum einen hinsichtlich seiner Zusammensetzung aus den verschiedenen Supply Chain-Bestandteilen in einem vorgegebenen Rahmen variiert werden, was gleichzeitig über die mögliche Zusammensetzung und Anzahl der abgebildeten Produkte entscheidet. Zum anderen können die einzelnen Komponenten bezüglich anzuwendender Bestell- bzw. Lagerhaltungsstrategien sowie Losgrößenplanungs- und Reihenfolgeplanungsstrategien konfiguriert werden. Durch die Möglichkeit der Variation der Struktur der Supply Chain und die unterschiedliche Kombination der Strategien ihrer Bestandteile wird generell das Simulieren unterschiedlichster Szenarien ermöglicht. Innerhalb der Arbeit wurde exemplarisch ein konkretes Ausgangsszenario im Hinblick auf Gesamtkosten und erreichte Servicegrade der Komponenten optimiert. Mit Hilfe des programminternen Genetischen Algorithmus wurden Orientierungswerte ermittelt, die dann anhand diverser manuell durchgeführter Simulationsexperimente angepasst bzw. verfeinert wurden. Anschließend erfolgten vergleichende Simulationsexperimente unter Variation der Losgrößenplanungs- und Reihenfolgeplanungsstrategien und eine Auswertung der erhaltenen Ergebnisse.



Otte, Enrico; von
HLA-Schnittstellen für bausteinorientierte Simulatoren. - 140 S. Ilmenau : Techn. Univ., Diplomarbeit, 2009

Die Computersimulation umfasst ein breites Spektrum an Werkzeugen, welche ihre Stärken meist in speziellen Anwendungsfällen ausspielen. Eine Gruppe von Werkzeugen, meist abstrakterer Natur, bilden bausteinorientierte Simulatoren, deren Variationen sich wiederrum über die Spezialisierung auf unterschiedlichste Themengebiete oder aber auch die Verfügbarkeit auf unterschiedlichen Plattformen erstrecken. - Wird die Computersimulation im Sinne eines globalen Produktionsplanung und -steuerungs-Instruments verstanden, so eröffnet sich dem Anwender ein großes Problemfeld mit dem er sich auseinandersetzen muss: Die Kopplung heterogener Systeme oder auch Schnittstellenproblematik. Die erforderliche Implementierung eines allgemeinen Kommunikationsstandards wird dabei von Konflikten zwischen unterschiedlichen Simulations-Paradigmen begleitet, deren Auflösung selbst erhebliche Komplikationen hervorruft und zum Teil selber eine Standardisierung fordert. - Am Beispiel eines auf zwei bausteinorientierte Simulatoren verteilten Modells wird die Kopplung eines entsprechenden Simulatortyps über eine HLA (IEEE1516) Laufzeitkomponente implementiert. Die erarbeitete prototypische Implementierung enthält dabei Lösungsvorschläge zur Kompensierung von Paradigmen-Konflikten, beleuchtet technische Probleme der Entwicklungsphase und stellt im Bereich Nutzerfreundlichkeit eine innovative Erweiterung vor. - Es wird die Software "Extend" der Firma "Imagine That" um Funktionsbausteine erweitert, die eine Kopplung an die HLA-RTI der "Pitch" ermöglichen, deren Kommunikation entsprechend über ein TCP/IP Netzwerk abgewickelt wird. Zwei Instanzen von Extend laufen im Versuchsaufbau in zwei virtuellen Maschinen und tauschen Objekte der Simulation über die HLA-RTI. Dabei liegt ein spezieller Fokus auf den Synchronisationsmechanismen der HLA und der Simulationszeitverwaltung von Extend. - Die anhand des lauffähigen Prototypen erfassten Ergebnisse sind grundsätzlicher Natur und als Grundlagenforschung zu werten. Die Ergebnisse sind in einem sehr speziellen Anwendungsfall erarbeitet, können aber auf Systeme identischer oder ähnlicher Paradigmen übertragen werden.



Kupke, Daniel;
Konzeption und Realisierung eines simulationsbasierten Planungstool für den Automobilzulieferer MAHLE. - 120 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In dieser Arbeit wurde ein simulationsbasiertes Planunungstool für den Automobilzulieferer MAHLE entwickelt. Der Produktionsplaner kann ein Produktionsprogramm erstellen und mit Hilfe der Simulation abschätzen, ob es realistisch ist.



Greiner-Perth, Stefan;
Simulationsbasierte Optimierung der Mitarbeiteranzahl in einer niedrig automatisierten Fertigungslinie. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Für eine niedrig automatisierte Fertigung ist der Personalbedarf für die Bedienung der Arbeitsstationen ein wichtiger Faktor. Gründe dafür sind der direkte Einfluss auf die Personalkosten und die Effektivität in der Fertigung. Der Fokus dieser Arbeit liegt auf der effizienten Verteilung der in der Fertigungslinie anfallenden produktiven Verrichtungen, welche das manuelle Handling von Material und die Bedienung der Maschinen umfassen. Mit der Aufteilung der Zuständigkeitsbereiche im Arbeitssystem ist die übergeordnete Frage nach der minimalen Anzahl von produktivem Personal bei gegebenem Linientakt im Fertigungssystem verbunden. Aufgrund der Vielzahl von Kombinationsmöglichkeiten ist die exakte Berechnung innerhalb einer kurzen Zeit nicht denkbar. Da für die spezielle Problemstellung kein Lösungsansatz existiert, wurde ein messy genetischer Algorithmus ausgewählt und angepasst. Er ermöglicht die Lösungsfindung durch schrittweise Verbesserungen und arbeitet gleichzeitig mit einer Menge von Lösungskandidaten. Die Implementierung des Algorithmus erfolgte mittels der Simulationssprache SimTalk und der Simulationssoftware eM-Plant. Hierzu wurde ein Modul entwickelt, welches für die Minimierung der Mitarbeiteranzahl und ähnliche Optimierungsprobleme anwendbar ist. Gezeigt wird, dass der Algorithmus wesentlich schneller Lösungen bei mindestens gleicher Güte findet als es durch die manuellen Berechnungen möglich ist. Existieren mehrere Lösungen werden dem Anwender die Alternativen aufgezeigt.



Koch, Martin;
Entwicklung einer taktorientierten Fertigungssteuerung. - 179 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Optimierung der Fertigungssteuerung für das Presswerk der BMW Group unter Anwendung einer Just-In-Time Steuerungsphilosphie.



Zhu, Zhu;
Integrierte Simulation: ein Referenzsystem für KMU. - 111 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In dieser Arbeit soll ein Prototyp für integrierte Simulation mit ERP-System entwickelt werden. Mit Hilfe des Prototyps werden die Planungsdaten des ERP-Systems übermittelt und die Simulationsexperimente durchgeführt sowie eine optimale operative Planungsentscheidung ermittelt. - Ziel der Arbeit ist eine Untersuchung der Kopplungs- und Integrationsaspekte des an kleinen und mittelständischen Unternehmen (KMU) orientierten ERP-Systems. Dies soll vor dem Hintergrund der Simulationsentwicklungsumgebung (Plant Simulation) geschehen. Für Lehr- und Demonstrationszwecke soll anhand ausgewählter Aufgabestellungen ein Prototyp für die integrierte Simulation entwickelt werden. Schließlich sollen Anforderungen für die KMU-gerechte Realisierung von Simulationslösungen heraus gestellt werden.



Gwitt, Jakob;
Anwendung genetischer Algorithmen zur simulationsbasierten Optimierung der Auftragsbearbeitung in der Leiterplattenfertigung. - V, 108 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die vorliegende Diplomarbeit behandelt die Anwendung genetischer Algorithmen zur simulationsbasierten Optimierung der Auftragsbearbeitung in der Leiterplattenfertigung. In diesem Produktionsszenario werden unterschiedliche Produkttypen nacheinander gefertigt. Durch diese sequenzbasierte Produktion hat die Auftragsreihenfolge großen Einfluss auf die Anzahl der benötigten Rüstoperationen zwischen den unterschiedlichen Produkttypen. Aufgrund der begrenzen Kapazität des Zuführungssystems - die Zuführungsschiene, welche die einzelnen Bauelementtypen zur Bestückung der Leiterplattentypen enthält - besteht die Notwendigkeit, einige Bauteiletypen im Zuführungssystem auszutauschen, um den nachfolgenden Fertigungsauftrag zu bestücken. - Ein Ziel der Prozess- und Produktionsplanung ist somit die Minimierung der Rüstzeiten bzw. -Operationen. Das Ziel dieser Arbeit ist das Aufzeigen von Einsparungspotenzial im Sinne einer Reduktion der gesamten Fertigungszeit in der Leiterplattenfertigung, durch den Einsatz genetischer Algorithmen. Diese Reduktion wird unter anderem durch die Minimierung der Anzahl notwendiger Rüstoperationen ermöglicht. Neben diesen Aspekt existieren weitere Aufgabenbereiche, die berücksichtigt werden müssen. Das Line-Balancing (die Austaktung der Fertigungslinie) innerhalb einer Linie sowie zwischen Fertigungslinien. Zwischen diesen Aufgaben bzw.- Problembereichen existieren Zielkonflikte und somit Abhängigkeiten, die separat diskutiert und anhand mathematischer Formeln aufgezeigt werden. Um die Güte des genetischen Algorithmus zu bestimmen, wird dieser mit unterschiedlichen Einsteuerungsverfahren verglichen. Der Vergleich wird anhand 3 unterschiedlicher Szenarien aufgezeigt und bewertet, das 1-Maschinenproblem sowie das 2-Maschinenproblem jeweils in sequentieller und paralleler Anordnung. Unter anderem wird dabei das Fifo Verfahren als Vergleichsmaßstab herangezogen. Diese Szenarien wurden innerhalb einer Simulationssoftware abgebildet. Durch den Einsatz der Software wurde der genetische Algorithmus mit dieser Simulationssoftware gekoppelt. Der Gedanke hinter diesem Vorgehen ist der Vergleich externer Lösungen mit dem genetischen Algorithmus oder die Verbesserung bereits vorhandener Lösungen.



Rogge, Steffen;
Realisierung eines integrierten Kundenmanagementsystems (CRM) für ein Unternehmen der Investitionsgüterbranche. - 108 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die vorliegende Diplomarbeit beschäftigt sich mit der Realisierung eines integrierten Kundenmanagementsystems (CRM) für den Vertrieb und dem Marketing bei der Bosch Sicherheitssysteme GmbH. - Im Rahmen dieser Arbeit soll neben der Vermittlung des theoretischen Unterbaus eines CRMs vor allem die Einführung und die Realisierung eines CRM-Systems bei der Bosch Sicherheitssysteme GmbH dargestellt werden. Der Fokus der Arbeit wird hierzu auf den Einführungsprozess und die Umsetzung des Systems gerichtet. Ein weiterer Schwerpunkt der Arbeit liegt auf der Durchführung einer empirischen Untersuchung zum CRM-System. Hierbei wurden die einzelnen Vertriebsbeauftragten der Niederlassung Frankfurt zum CRM-System bei der Bosch Sicherheitssysteme GmbH befragt. - Die vorliegende Diplomarbeit ist in sechs Kapitel und einen Anhang unterteilt. Zu Beginn werden Motivation, Problemstellung und Zielsetzung der Arbeit sowie das Unternehmen Bosch Sicherheitssysteme GmbH vorgestellt. Das zweite Kapitel vermittelt theoretische Grundlagen zum Customer Relationship Management. Im dritten Kapitel werden die Anforderungen an ein geeignetes CRM-System dargelegt. Kapitel vier stellt den eigentlichen Einführungsprozess des Customer Relationship Management dar. Unter anderem werden hier die Bedeutung und der Nutzen des CRM-Systems für die Bosch Sicherheitssystem GmbH genannt sowie die Systemarchitektur und der Einführungsprozess im Marketing und Vertrieb dargestellt. Kapitel fünf beschäftigt sich mit einer Empirischen Untersuchung, um das Empfinden der Vertriebsmitarbeiter der Niederlassung Frankfurt zur Einführung eines neuen CRM-Systems darzustellen. Im sechsten Kapitel werden abschließend eine Zusammenfassung und ein Ausblick der vorliegenden Arbeit gegeben.



Lin, Xiatian;
Anwendung der Simulation in kleinen und mittelständischen Unternehmen. - 127 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Das Ziel der vorliegenden Diplomarbeit soll sein, bereits existierende Lösungen im Rahmen der Optimierung der Fertigungsprozesse für KMU aufzuzeigen, sowie Anforderungen an mittelstandsgerechte Lösungen und Entwicklungsbedarf im Bereich der Digitalen Fabrik aufzuzeigen. - Einige ausgewählte IT-gestützte Ansätze/Werkzeuge für die Prozessoptimierung werden in der Arbeit analysiert. Ihre Aufgabenfelder, Funktionalitäten und besonders ihr Einsatz in KMU sowie die Anforderungen der KMU werden beschrieben und betrachtet. Da Simulation die Kerntechnik der Digitalen Fabrik ist, wird die Anwendung der Simulationstechnik in KMU als Kern dieser Diplomarbeit behandelt. - Während Materialfluss-Simulationen in großen Firmen ein Standardinstrument zur Planung und Optimierung von Produktionsprozessen sowie zur Absicherung von Investitionsentscheidungen darstellen, ist deren Einsatz in KMU weniger verbreitet. Die verschiedenen industriellen Studien über Anwendung der Simulationstechnik wurden in dieser Arbeit analysiert. Dabei hat sich gezeigt, dass auch bei KMU viele logistische Problemstellungen existieren, die mit den Werkzeugen Simulation und Optimierung gelöst werden können. Die Komplexität der Aufgabenstellungen ist dabei nicht zwangsläufig geringer als bei größeren Unternehmen. Die Anforderungen an die Effizienz der eingesetzten Werkzeuge sind sogar oftmals höher. - Aufgrund der Charakteristiken von KMU ist es zunächst erforderlich, die besonderen Anforderungen der KMU an eine Simulationssoftware zu untersuchen und herauszufinden, inwiefern sich diese von denen größerer Unternehmen unterscheiden. Durch eine Befragung sollten die Anforderungen der KMU an die Optimierungstools abgeleitet werden. - Am Ende dieser Diplomarbeit wird ein geeignetes IT- gestütztes Konzept zur Optimierung der Fertigungsprozesse für KMU im Rahmen des Referenzmodells und Prototyps vorgestellt. Auf der Grundlage der Forschungsplattform wurde in Zusammenarbeit mit einem ERP-Software Unternehmen ein Referenzmodell für integrierte Simulation initiiert, dessen Ziel es ist, Simulationssysteme als attraktive Werkzeuge auch für KMU zu etablieren. Der Schwerpunkt liegt auf der Modellierung gebräuchlicher Komponenten im Bausteinkonzept. Zusätzlich wurde ein UML-Referenzmodell für die integrierte Simulation entwickelt. Großer Wert wurde dabei auf die Modularität und Wiederverwendbarkeit der entstehenden Komponenten gelegt, die damit auch von anderen KMU verwendet werden können.



Hennig, Martin;
Entwicklung und Implementierung eines Kennzahlensystemes zur Bewertung der Beherrschung von Fertigungsprozessen und -linien am Beispiel der "Bosch Sistemas Automotrices S.A. de C.V." in Juaréz/Mexiko. - 104 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die weltweite Verlagerung der Fertigung von Produkten gewinnt in der heutigen globalisierten Wirtschaft eine immer größere Bedeutung. Um den Trägern von Verlagerungsentscheidungen eine nicht-ökonomische Grundlage zu bieten, wurde in der vorliegenden Arbeit ein System entwickelt, um die Beherrschung von Fertigungsprozessen und -linien an einem Standort zu bewerten. - Nach einer breiten Analyse in Frage kommender Kennzahlen und zu erfüllender Kriterien wurden die Größen "Durchlaufzeit" und "Taktzeit" ausgewählt, um die Beherrschung zu quantifizieren. Aus diesen Größen ließen sich verschiedene Kennzahlen generieren und in einem Kennzahlensystem zusammenführen. - Eine erste praktische Anwendung der Kennzahlen erfolgte am Standort Juaréz der Robert Bosch GmbH, mit deren Unterstützung diese Arbeit entstand.



Wang, Li;
Bewertung der Instandhaltung von Produktions- und Logistiksystemen mit Hilfe von Kostensimulation. - 112 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Informationen über die zu erwartenden Kosten sind bereits im Vorfeld der eigentlichen Produktion für den heutigen Wettbewerb immer bedeutsamer. Der Ausgangspunkt dieser Arbeit ist, dass die Kosten als zusätzliche Dimension und wesentlicher Gesichtpunkt für Entscheidungen in die klassische Simulation zu integrieren sind. Das Ziel dieser Arbeit ist es, den Einsatz der Simulation zur kostenorientierten Bewertung von Produktions- und Logistiksystemen sowie im Bereich der Instandhaltung zu untersuchen, ein Konzept zur betriebswirtschaftlichen Entscheidungsunterstützung im Instandhaltungsmanagement zu entwickeln und es mit Simulationstool umzusetzen.Durch die Kostensimulation wird die technische Bewertung um betriebswirtschaftliche Aspekte erweitert. Diese kostenseitige Betrachtung kann entweder durch simulationsinterne Erweiterung, durch kostenspezifische Parameter oder durch Entwicklung eines eigenständigen Kostentools außerhalb des Simulationssystems erfolgen.Das wesentliche Ziel der Kostensimulation im Instandhaltungsbereich ist die Erzeugung der Kostentransparenz.Die Instandhaltungskosten müssen mit Hilfe eines in der Simulation eingesetzten Kostenrechnungsverfahrens verursachungsgerecht und detailliert erfasst werden. - Zur Ermittlung von direkten Instandhaltungskosten mittels Simulation müssen keine Kosten- oder Verbrauchsfunktionen zur Beschreibung des Werteverzehrs gebildet und gepflegt werden. Die relevanten direkten Instandhaltungskosten wurden zunächst kategorisiert und auf die zu charakterisierenden Ressourcen verteilt. Im Laufe eines Simulationsexperiments können den Prozessschritten der Ressourcenverbrauch zugeordnet werden. Aus dieser prozessorientierten Beschreibung können die direkten Instandhaltungskosten mit Hilfe der Simulation unmittelbar ermittelt werden, indem die während des Simulationslaufs ermittelten Zeiten oder Mengen als Bezugsgrößen herangezogen werden, welche bei dem Einsatz von Ressourcen in Anspruch genommen werden.Aufgrund der Schwierigkeit der Erfassung indirekter Instandhaltungskosten kann in der Simulation mit Hilfe der linearen oder nichtlinearen Regression eine funktionale Approximation der empirischen exakten oder geschätzten Kostenwerte erreicht werden.Bei der Konzeptumsetzung wurde ein ungeplanter Instandsetzungsprozess mit dem Prinzip der integrierten Kostensimulation im Simulationstool eM-Plant simuliert. In dem Modell basierte die Auswertung bezüglich Instandhaltungskosten auf der Definition des beweglichen Elements Instandhaltungsauftrag als Kostenträger und der Erweiterung deren Standardattribute um die Kostenparameter.



Heeß, Sebastian;
Dezentrale Steuerung von Transportnetzwerken mittels deliberativer Agenten. - 144 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2008

Im Rahmen dieser Ausarbeitung soll die Eignung von deliberativen Agenten zur dezentralen Steuerung von logistischen Transportnetzwerken untersucht werden. Zu diesem Zweck wird ein Umladeszenario entwickelt, welches sich an Stückgutkooperationen zwischen unabhängigen Spediteuren orientiert, d. h. die Zuordnung von Stückgütern auf autonome Transportfahrzeuge vorsieht. Die Zuordnung erfolgt durch direkte, in ihrem Ablauf formalisierte Verhandlungen zwischen Gütern und Fahrzeugen. Auf Basis des Umladeszenarios wird ein dezentrales Steuerungskonzept unter Einsatz von deliberativen Agenten entwickelt. Um die Eignung des Steuerungskonzepts für logistische Prozesse zu bewerten, wird eine Umsetzung des Szenarios als Multiagentensystem vorgenommen. Der entwickelte Prototyp ermöglicht die Steuerung durch das entwickelte Konzept oder alternativ durch die einfache Prioritätsregel FIFO, um eine kritische Betrachtung der Aufwände während Entwicklung und Ablauf einer Multiagenten basierten Steuerung zu dem zu erwartenden Nutzen durchzuführen.



Nowag, Michael;
Konzeption und Implementierung eines Client-Server-basierten Unternehmensplanspiels in Anlehnung an das Beer Distribution Game unter Verwendung von JAVA/Eclipse. - 123 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In dieser Arbeit wurde unter Verwendung des Eclipse RCP Frameworks eine Simulationsanwendung auf Basis des am MIT entwickelten Brettspiels "The Beer Distribution Game" zur Demonstration des in allen Supply Chains auftretenden sog. Bullwhip Effects entworfen. Das Konzept dieses Spiels wurde, nach einer Einführung in das allgemeine Themengebiet und der Evaluierung bereits existierender Lösungen, im Hinblick auf einen Einsatz in der universitären Lehre weiterentwickelt. Diese Weiterentwicklung bezieht sich insbesondere auf eine verteilte digitale Anwendungslösung, die neben einer hohen Parametrisierung der ein Spielumfeld beschreibenden Szenarien, die Implementierung von computergesteuerten Spielagenten, in Ergänzung zu menschlichen Spielteilnehmern, vorsieht. Diese Spielagenten sollten ihr Verhalten auf Basis verschiedener Lagerhaltungsstrategien in Kombination mit geeigneten, bedarfsverlaufspezifischen Prognoseverfahren treffen, um eine möglichst günstige Lösung für das Spiel zu finden. Die von den Agenten verwendeten Prognoseverfahren stehen dabei zu jeder Zeit auch den menschlichen Teilnehmern zur Unterstützung ihres Entscheidungsprozesses zur Verfügung. Ein weiterer Schwerpunkt der Arbeit lag auf der Demonstration der Effektivität von kooperativer Zusammenarbeit zwischen Supply Chain Partnern, im Bezug auf die Optimierung der Gesamtkosten entlang der Versorgungskette. Zu diesem Zweck wurden, auf kooperativen Konzepten des Supply Chain Managements basierende Strategien diskutiert und in die Anwendung implementiert. - Um die Fähigkeiten der praktischen Implementierung und die Effektivität der entwickelten eigenen Lagerhaltungsstrategie in Kombination mit entsprechenden Prognoseverfahren zu demonstrieren, wurden beispielhafte Szenarien selektiert, simuliert und evaluiert. Die Überlegenheit des Einsatzes dieser Verfahren konnte im Vergleich zu der Referenzlösung belegt werden, doch war es aufgrund der hohen Parametrisierbarkeit dieser Szenarien nicht zu erwarten eine optimale Lösung für das gestellte Optimierungsproblem zu finden. Die vorgestellte praktische Arbeit, die sämtliche im Anforderungsprofil spezifizierten Funktionen realisiert, stellt vielmehr eine Experimentierplattform dar, um die Effizienz verschiedener Herangehensweisen und Algorithmen miteinander zu vergleichen. Zusätzlich bietet es ein kurzweiliges Simulationsspiel, das menschlichen Teilnehmern die Dynamik in Supply Chains demonstrieren soll.



Fritsche, Marco;
Prozessintegration zwischen Anlagenlieferanten und dem Karosseriebau der AUDI AG zur Verbesserung der Datenqualität im Rahmen der Digitalen Fabrik. - 135 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

Die Automobilindustrie befindet sich inmitten eines radikalen Wandels. Um sich im Markt angesichts des wachsenden Wettbewerbsdrucks erfolgreich aufzustellen, setzen die Automobilhersteller auf eine Ausweitung der Modellpalette. Herausforderungen entstehen jedoch nicht nur durch die steigende Anzahl der angebotenen Modelle, sondern vor allem in Verbindung mit den immer kürzer werdenden Innovationszyklen. Zudem steigt die Komplexität eines Fahrzeuges weiter an. - Die beschriebenen Entwicklungen beeinflussen nicht nur die Fahrzeug- sondern auch die Anlagenentwicklung. Verkürzte Fertigungsplanungszyklen und steigende Anlagenkomplexität führen dazu, dass immer mehr Anlagen in kürzerer Zeit geplant und realisiert werden müssen. In der Produktionsplanung stellt die Unterstützung durch digitale Planungstools einen wichtigen Schritt dar, um den genannten Anforderungen gerecht zu werden. Hierbei spielt die Digitale Fabrik eine entscheidende Rolle. - Die Grundlage für die digitale Fabrikplanung bilden die im Rahmen des Produktionsplanungsprozesses in der Entwicklung und Konstruktion erzeugten CAD-Daten. Diese sind die wesentlichen Informationsträger in modernen Prozessketten des Produktionsplanungsprozesses. Dabei ist es von besonderer Bedeutung, dass die CAD-Daten vollständig und in der entsprechenden Qualität zur Verfügung stehen. Durch Einflüsse wie Schnittstellenprobleme, unterschiedliche Konstruktionsmethodiken oder Anwenderfehler können jedoch Qualitätsdefizite entstehen, was innerhalb der Prozesskette zu einem nicht unerheblichen zeitlichen und finanziellen Aufwand durch Nacharbeit führt. Die oben beschriebene Problematik gewinnt durch die zunehmende weltweite Zusammenarbeit der Unternehmen noch an Bedeutung, da der Austausch von 3D-Daten in Folge dessen immer mehr ansteigt. Dies resultiert in einer Zunahme der von den Unternehmen zu bewältigenden Datenmengen, was die Kontrolle und Sicherstellung der Datenqualität noch erschwert. - Ziel der Arbeit war es, das Problem der Qualitätssicherung angesichts einer wachsenden Datenmenge im Rahmen der Digitalen Fabrik anhand eines Fallbeispiels aus der Praxis zu analysieren und Lösungswege aufzuzeigen. Durch eine Situationsanalyse in der Karosseriebauplanung eines Automobilkonzerns konnten Probleme bei der Datenqualität und -vollständigkeit im Zuge des Datenaustauschprozesses identifiziert werden. In der Arbeit konnten der Karosseriebauplanung Lösungen zur Optimierung des Datenkontrollprozesses sowie deren zeitliche Einordnung aufgezeigt werden. Das Optimierungspotenzial ergibt sich vor allem durch den Einsatz eines Datenqualitätstools sowie die konsequente Nutzung der Werkzeuge der Digitalen Fabrik bzw. der Funktionen eines neuen PDM-Systems.



Schuch, Christian;
Konzeption eines simulationsbasierten Frameworks für die Modellierung und Analyse unternehmensübergreifender Produktions- und Distributionssysteme. - 132 S. Ilmenau : Techn. Univ., Diplomarbeit, 2008

In Zeiten zunehmend globalisierter Märkte einerseits und der Konzentration auf Kernkompetenzen und des Outsourcings von Teilen der Wertschöpfung andererseits sind Akteure auf der Anbieterseite gezwungen in verschiedenen Funktionsbereichen zu kooperieren. Simulation gewinnt dabei an Bedeutung für die Entscheidungsunterstützung. - Im Rahmen dieser Arbeit wird ein generisches Framework zur Modellierung von überbetrieblichen Wertschöpfungsketten, der Durchführung von Simulationsexperimenten und deren quantitativen Auswertung entworfen. Dazu wird zunächst ein Überblick über die Aufgaben des Supply Chain Management sowie die dabei auftretenden Planungs- und Steuerungsprobleme gegeben. Anschließend wird in einem kurzen Vergleich mehrerer Ansätze zur Darstellung und Lösung der vorgestellten Probleme die Vorteilhaftigkeit der Simulation hervorgehoben um dann in die fachliche Analyse des zu entwerfenden Frameworks einzusteigen. Zunächst werden Einschränkungen des Betrachtungsgegenstandes vorgenommen um dann alle abzubildenden Akteure und Geschäftsprozesse mit deren Schnittstellen zu beschreiben. Der Experimentauswertung dienende Bewertungskriterien werden im Anschluss benannt. Im Rahmen des DV-Konzeptes wird ausgehend von der Zielstellung zunächst eine grundlegende Architektur der Simulationsbibliothek vorgeschlagen um dann die Bestandteile des Frameworks, das zugrundeliegende Datenmodell und grundlegende steuerungstechnische und funktionale Abläufe eines erstellten Modells näher zu beleuchten. Zur Demonstration der Mächtigkeit des Ansatzes werden verschienede Erweiterungsmöglichkeiten aufgezeigt. Vor dem abschließenden Ausblick werden exemplarisch die Konfiguration eines Modells und einiger Planungs- und Steuerungsmethoden umrissen.



Knapke, Stefan;
Analyse und Optimierung der Terminplanungs- und -steuerungsmethoden in Fahrzeugentwicklungsprojekten. - 128 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Der Automotivebereich befindet sich heute wie viele andere Industriezweige im globalen Wettbewerb. Um auf den umkämpften Absatzmärkten Erfolge erzielen zu können, suchen viele Hersteller nach Differenzierungsmerkmalen, die sich in erweiterten Modellpaletten widerspiegeln. Durch die gestiegene Derivatanzahl werden die Innovations- und Marktzyklen kürzer, da neue oder überarbeitete Fahrzeuge in immer kürzeren Abständen zu attraktiven Preisen und in hoher Qualität entwickelt und auf den Markt gebracht werden müssen. - Im Entwicklungsbereich wird dem Wettbewerbs- und Innovationsdruck unter anderem mit der Verkürzung des Entwicklungszeitraums begegnet, um innovative Produkte schneller auf den Markt bringen zu können. Das führt zu steigenden Anforderungen an die Terminplanung und -steuerung, da Terminkonflikte in verkürzten Entwicklungszeiträumen schwerer kompensierbar sind. - Im Rahmen dieser Arbeit wurde ein ganzheitliches Konzept zur Terminplanung und -steuerung in Fahrzeugentwicklungsprojekten der Dr. Ing. h.c. F. Porsche AG erstellt. Es verbessert die Qualität der Planung, Kontrolle und Steuerung von Terminen. Insbesondere ermöglicht es die frühzeitige Identifikation von Terminkonflikten und befähigt dadurch zur zeitnahen Gegensteuerung.



Lange, Ramona;
Serviceorientierte Architektur für die Produktionsplanung und -steuerung : Konzept und prototypische Implementierung. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Im Rahmen der Diplomarbeit wurden zunächst wesentliche Prinzipien einer serviceorientierten Architektur (SOA) herausgearbeitet und eine Einordnung des Begriffs der serviceorientierten Architektur innerhalb des in der Wirtschaftsinformatik verbreiteten Informations-Architekturbegriffs vorgenommen. Des Weiteren wurden geeignete Dienste für die Teilbereiche Terminierung und Bedarfsplanung der Produktionsplanung und steuerung entworfen. - Im praktischen Teil der Diplomarbeit wurde ein Prototyp einer serviceorientierten Architektur für die Produktionsplanung und steuerung implementiert. Aus Gründen des beschränkten Umfangs der Diplomarbeit und der zur Verfügung stehenden Zeit wurde nur auf eine mögliche Anwendung der Serviceorientierten Architektur für die Teilbereiche Terminierung und Bedarfsplanung und nicht auf den gesamten Umfang der Produktionsplanung und steuerung eingegangen. - Der Prototyp besteht drei Diensten: je ein Dienst für die Durchführung einer Terminierung, für die Durchführung der Bedarfsplanung und ein Dienst für den Abruf von Daten aus einem SAP R/3-Systems. Als Implementierungswerkzeug wurde Visual Studio 2005 Professional mit dem SAP-Connector für Microsoft .NET 1.0 und die Programmiersprache C# verwendet. - Für die Bereitstellung der Daten aus dem SAP R/3-System wurde ein Funktionsbaustein im R/3 mit der SAP eigenen Programmiersprache ABAP implementiert. Für die Implementierung einer serviceorientierten Architektur ist es notwendig, die Dienste zu einer Anwendung zu kombinieren. Für die so genannte Orchestrierung der Dienste wurde der BPEL-Prozess-Manager von Oracle eingesetzt.



Gerisch, Sebastian;
Q-Reporting in der Komponentenmontage zur Unterstützung und Verbesserung der Produktionsprozesse. - 74 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Herr Sebastian Gerisch bearbeitete zum Abschluss seines Wirtschaftsinformatikstudiums an der Technischen Universität Ilmenau im Wintersemester 2006/2007 die Diplomarbeit zum Thema "Q-Reporting in der Komponentenmontage zur Unterstützung und Verbesserung der Produktionsprozesse". Das Thema wurde durch das BMW Werk Dingolfing vergeben und durch Herrn Dr. Jochen Beyer betreut. - Im Rahmen der Bearbeitung wurde untersucht, inwieweit Methoden zur Datenanalyse, die durch Business-Intelligence-Systeme bereitgestellt werden, den Prozess der Fehlervermeidung im Fertigungsbereich der Komponentenmontage nachhaltig unterstützen können. - Hierzu erfolgte zunächst eine umfassende Analyse der zugrunde liegenden Fertigungsprozesse und des derzeitigen Standes des Berichtswesens. - Im weiteren Verlauf wurde der Aufbau eines Data-Warehouse-Systems als Grundlage für den Einsatz von Analysemethoden erarbeitet. Diese Betrachtung erfolgte sowohl aus statischer (Zerlegung in Komponenten) als auch aus dynamischer Sicht (Phasen des Data-Warehousing). Im nächsten Schritt wurden die in der Praxis am häufigsten zum Einsatz kommenden Analysemethoden Data Access, Online Analytical Processing und Data Mining vorgestellt. - In welcher Weise diese Methoden den Prozess der Analyse des Datenbestandes im Fertigungsbereich der Komponentenmontage unterstützen können, wurde in einem Soll-Konzept erarbeitet und zusammengefasst. - Ein Teil dieses Konzeptes wurde im Rahmen des BMW-Projektes "Q-Reporting Komponentenmontage" realisiert. Die Beschreibung der Phasen zur IV-Technischen Realisierung bildet den Abschluss der Arbeit.



Pohling, Andreas;
Emergenz, Selbststeuerung und Selbstorganisation - neue Konzepte zur Gestaltung betrieblicher Abläufe. - 85 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Zur Bewältigung der zukünftigen Herausforderungen in Produktion und Logistik müssen die Unternehmen in die Lage versetzt werden, mit immer komplexeren Produkten und Dienstleistungen sehr schnell und kosteneffizient umgehen zu können. Zu den Herausforderungen der Zukunft gehört es, bei einer Steigerung der Komplexität, trotzdem eine steigende Qualität bei kürzeren Lieferzeiten zu erreichen. Ein zusätzlicher Druck wirkt dabei auf die Unternehmen, indem die Preise weiter fallen werden. Ziel dieser Arbeit ist es, darzustellen inwieweit Selbstorganisations- und Selbststeuerungsansätze dazu beitragen können, die Herausforderungen zu bewältigen. Zu Beginn der Arbeit werden die Begriffe Selbstorganisation, Selbststeuerung und Emergenz beschrieben, definiert und voneinander abgegrenzt. Der interdisziplinäre Charakter der Selbstorganisation wird dargestellt, indem die Bedeutung der Selbstorganisation in den Bereichen Naturwissenschaft, Sozialwissenschaft, Geisteswissenschaft und Ingenieurwissenschaft vorgestellt wird. Im Folgenden werden dann Ansätze zur Realisierung selbstorganisierender Systeme in Produktion und Logistik vorgestellt. Dazu zählen vor allem holonische Produktionssysteme, bionische Produktionssysteme und fraktale Produktionssysteme. Nach einem Vergleich der drei Ansätze wird ein aktueller State-of-the-Art Überblick mit Fokus auf Selbstorganisation und Selbststeuerung für die Bereiche Produktion und Logistik gegeben. Abschluss der Arbeit bildet ein Kapitel über die möglichen Auswirkungen auf die betriebliche Leistungskoordination von Selbstorganisation und Selbststeuerung in den potentiellen Anwendungsbereichen.



Kemter, Alexandra;
Klassische und kooperative Strategien zur Steuerung von Supply Chain Modellen unter Verwendung des Simulationstools ARENA. - 99 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die Diplomarbeit beschäftigt sich mit der Erstellung einer Simulationslösung basierend auf dem Simulationstool ARENA. Es wurde eine vorkonfigurierte und erweiterbare Lösung eines Simulationsmodelles einer Supply Chain entwickelt, die es dem Nutzer erlaubt, Simulationsläufe durchzuführen und sowohl die Paramter als auch das Modell relativ einfach anzupassen. Es ist möglich, die modellieret Supply Chain zu bewerten und verschiedene Konfigurationen zu vergleichen. - Ziel dabei ist es zu zeigen, dass sich die Anwendung kooperativer Strategien positiv auf ein zu optimierendes Ziel, in diesem Fall die Kosten oder der Servicegrad auswirkt. Es werden verschiedene klassische und kooperative Bestellstrategien in Verbindung mit Prognosestrategien gegenübergestellt, um anhand dieser die Verbesserungsmöglichkeiten bei kooperativen Strategien zu zeigen. In diesem Zusammenhang wird auch auf den Bullwhip-Effekt eingegangen.



Rödiger, Susan;
Kooperative Steuerung von Supply Chains unter Verwendung des Simulationstools eM-Plant. - 82 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Die vorliegende Arbeit dient der Abbildung und Visualisierung von Beschaffungsprozessen in der Supply Chain. Herkömmliche, non-kooperative Beschaffungsstrategien werden kooperativen Strategien gegenübergestellt und deren Effizienz, vor allem hinsichtlich logistik- und kostenorientierter Zielgrößen, verglichen. Zu diesem Zwecke wurde eine Simulationslösung auf Basis des Simulationstools eM-Plant erstellt. Im Rahmen dessen wird die Verringerung des Bullwhip-Effektes durch den Einsatz kooperativer Verfahren innerhalb der Lieferkette aufgezeigt und damit ein Ansporn für die Investition in Supply Chain Management gegeben.Die vorliegende Arbeit dient der Abbildung und Visualisierung von Beschaffungsprozessen in der Supply Chain. Herkömmliche, non-kooperative Beschaffungsstrategien werden kooperativen Strategien gegenübergestellt und deren Effizienz, vor allem hinsichtlich logistik- und kostenorientierter Zielgrößen, verglichen. Zu diesem Zwecke wurde eine Simulationslösung auf Basis des Simulationstools eM-Plant erstellt. Im Rahmen dessen wird die Verringerung des Bullwhip-Effektes durch den Einsatz kooperativer Verfahren innerhalb der Lieferkette aufgezeigt und damit ein Ansporn für die Investition in Supply Chain Management gegeben.



Klöppner, Robert;
Klassische und kooperative Strategien zur Steuerung von Supply Chains mit dem Simulationstool Enterprise Dynamics. - 94 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Das Supply Chain Management dient zur Steuerung der Informations- und Warenflüsse entlang der gesamten Wertschöpfungskette vom Zulieferer bis zum Endkunden. Eine zentrale Aufgabe stellt die Koordination logistischer Entscheidungen an den Schnittstellen zu anderen Unternehmen dar, welche auf unterschiedlichen Strategien basieren kann. - Eine gute Möglichkeit zur Untersuchung der Vor- und Nachteile dieser verschiedenen Strategien stellt die Simulation eines Modells einer Supply Chain dar, da ein solches Modell eine ganzheitliche Sicht über eine Wertschöpfungskette bietet. Des Weiteren können somit durch geringeren Aufwand Parameter der abgebildeten Supply Chain variiert und anhand dessen, wie in dieser Arbeit, Vergleiche verschiedener strategischer Ansätze angestellt werden. Als Werkzeug dient hierfür das Modellierungs- und Simulationstool Enterprise Dynamics. Diese Software sowie deren Bedienung wird im Rahmen dieser Arbeit ebenfalls genauer vorgestellt. - Das Ergebnis der Untersuchungen ist die Gegenüberstellung der Simulationsergebnisse für die unterschiedlichen klassischen und kooperativen Strategien zum einen basierend auf Kostenannahmen für Lagerhaltung, Nichtlieferbarkeit sowie Transport und zum anderen hinsichtlich des Modellierungsaufwandes. Hierbei wird außerdem eine Einschätzung in Bezug auf die theoretisch erwarteten Ergebnisse vorgenommen.



Montag, Karina;
SAP R/3 - Termin- und Kapazitätsplanung mit alternativen Vorgängen in der Serienfertigung. - 93 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

In dieser Arbeit wurden die Möglichkeiten verschiedener Produktionsplanungs- und Steuerungssysteme zur Lösung eines konkreten Planungsproblems im Automobilzuliefererbetrieb REGE Motorenteile GmbH & Co. KG untersucht. Das Planungsproblem umfasste die Abbildung parallel arbeitender Maschinen in einem Arbeitsgang und die kurzfristige Termin- und Kapazitätsplanung unter Berücksichtigung alternativer Vorgänge. Als Ergebnis dieser Untersuchungen wurde ein Konzept erstellt und prototypisch implementiert, das die bisherigen Möglichkeiten der Kapazitätsplanung im System SAP R/3 erweitert. Damit wurde die Möglichkeit geschaffen, schnell und ohne aufwändige Planungsläufe alternative Vorgänge zur Lösung des Planungsproblems einzubeziehen.



Hagemann, Markus;
Skalierbare Multiagentensimulation : Untersuchung bestehender Frameworks zur Multiagentensimulation im Hinblick auf Skalierbarkeitsanforderungen. - 90 S. Ilmenau : Techn. Univ., Diplomarbeit, 2007

Multiagentensimulation ist eine vergleichsweise junge Simulationsdisziplin, die sich mit der Modellierung auf Basis autonomer Einheiten, den Agenten beschäftigt. Es existiert derzeit eine Vielzahl unterschiedlicher Simulationswerkzeuge, die sich diesem konkreten Bereich widmen. Aufgrund der mitunter deutlich höheren Ressourcenbeanspruchung derartiger Simulationen und der Dynamik der Modelle, ist es besonders im Hinblick auf den praktischen Einsatz der Systeme in betriebswirtschaftlichen Anwendungsbereichen notwendig, dass die hardwareseitig vorhandenen Mittel effizient genutzt werden. Im Rahmen dieser Arbeit soll nun zunächst die Multiagentensimulation in den entsprechenden wissenschaftlichen Kontext eingeordnet werden. Zu diesem Zweck erfolgt eine definitorische Annäherung sowohl von Seiten des Agenten-, als auch des Simulationsbegriffes. Anschließend wird genauer auf den Begriff der Skalierbarkeit eingegangen, ehe momentan verfügbare Werkzeuge vorgestellt werden. Zur Überprüfung der Skalierbarkeit werden drei exemplarisch ausgewählte repräsentative Werkzeuge vermittels der Ausführung eines skalierbaren Modells auf unterschiedlichen Rechnersystemen getestet. Mit den ermittelten Resultaten wird eine Einschätzung über die mögliche Verwendbarkeit der Werkzeuge für betriebswirtschaftliche Zwecke vorgenommen.