Diplom- und Masterarbeiten

Anzahl der Treffer: 118
Erstellt: Fri, 29 Sep 2023 23:03:22 +0200 in 0.0805 sec


Entwicklung einer simulationsbasierten Methodik zur Validierung und Optimierung von APS-Planungsergebnissen. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Produktionssysteme sind komplexe sozioökonomische Systeme, die von stochastischen Einflüssen beeinflusst werden. Das macht die Planung von Aktivitäten und Ereignissen zu einer anspruchsvollen Aufgabe. Advanced Planning Systeme sollen die Planungseinheiten des Produktionssystems unterstützen, können jedoch in der Praxis nicht immer optimal arbeiten, um die theoretischen Lösungen ihrer Methoden zu reproduzieren. Diese Systeme verwenden Modelle, die von Experten entworfen werden müssen. Die Herausforderung besteht darin, APS-Modelle zu entwerfen, die im realen System optimale und zulässige Lösungen bieten. Im Rahmen dieser Arbeit wurde ein Konzept zur simulationsbasierten Validierung und Optimierung der Planungsergebnisse von APS-Systemen entwickelt. Bevor die Pläne des APS-Systems im realen System umgesetzt werden, werden sie mithilfe einer Materialflusssimulation validiert und gegebenenfalls angepasst, bis die Planungsqualität innerhalb eines festgelegten Toleranzbereichs liegt. Dazu werden Qualitätskennzahlen eingeführt und die optimale Planung wird durch Parametervariationen und Anpassungen des Datenmodells des APS-Systems approximiert. Im Rahmen dieser Arbeit wurden weitere Potenziale für eine Erweiterung der Methodik identifiziert, wie zum Beispiel die kollaborative, standortübergreifende Simulation von Wertschöpfungsnetzwerken, in denen die beteiligten Produktionssysteme sich gegenseitig beeinflussen.



Gräßner, Rabea Wiebke;
Sequential Pattern Mining für Eventlogs im Kontext von Data Farming. - Ilmenau. - 100 Seiten
Technische Universität Ilmenau, Masterarbeit 2023

Grundlage des Sequential Pattern Mining bilden Sequenzen, die zur Mustersuche miteinander verglichen werden können. Das Sequential Pattern Mining hat den Ursprung in der Warenkorbanalyse. Ein Kunde kauft zu einem bestimmten Zeitpunkt in einer sogenannten Transaktion mindestens ein Produkt. Dieser Transaktion lässt sich eindeutig ein Kunde, eine Transaktionsnummer sowie der Inhalt der Transaktion zuordnen. Jeder Kunde bildet eine eigene Sequenz. Eventlogs beinhalten eindeutige Ereignis-Vorgangs-Paare. Das bedeutet, dass jedem eindeutig gekennzeichneten Vorgang mindestens ein Ereignis zugeordnet wird. Auf dieser Basis arbeitet der XES-Standard zur Speicherung der Eventlogs. Der Kunde bildet den Vorgang, die Transaktion bildet das Ereignis. Dieser Zuordnung können dann noch Attribute mitgegeben werden, die sich zusätzlich auswerten lassen. Im Produktionskontext gibt es allerdings keine eindeutige Zuordnung von Kunden, Transaktionen und Produkten. Es finden nicht nur lokale Ereignisse statt, die speziell einen Kunden oder eine Transaktion betreffen, sondern es können auch globale Ereignisse auftreten. Diese globalen Ereignisse haben Auswirkungen auf sämtliche Vorgänge im System. Durch die übergreifend wirkenden Ereignisse gibt es nicht ausschließlich eindeutige Ereignis-Vorgangs-Paare. Der XES-Standard der Eventlogs lässt sich in diesem Kontext nicht anwenden. Die Bildung von Sequenzen basierend auf einzelnen Vorgängen ist demnach nicht zielführend. Sequenzen müssen anderweitig gebildet werden. Dafür werden in der Arbeit verschiedene Ansätze diskutiert. In diesem Kontext wird auch analysiert, ob alle Ereignisse oder nur bestimmte, im Vorfeld festgelegte, diskrete Ereignisse aufgezeichnet werden sollen und welche Zusatzinformationen trotz der Verwendung diskreter Ereignisse relevant sein könnten. Bei der Ereignisaufzeichnung ist darauf zu achten, den zeitlichen Verlauf diverser Größen nachvollziehbar zu gestalten. Ziel der Arbeit ist es, die Aufzeichnung der Ereignisse nicht nur an einem einzelnen Simulationslauf durchzuführen, sondern sie auch in den Kontext des Data Farming zu setzen. Dabei muss sichergestellt werden, dass Muster betrachtet werden, die auch in den einzelnen Simulationsläufen des Data-Farming-Experiments häufig sind. Aus den gefundenen Mustern sollen dann Regeln, die sogenannten Assoziationsregeln, abgeleitet werden. Die aufgestellten Assoziationsregeln betreffen einerseits die Zusammenhänge im System, andererseits die Beziehung zwischen Eingabeparameterkonfiguration und Musterentdeckung. Nachdem das Konzept aufgestellt wurde, wird dieses an einem Anwendungsszenario validiert. Die Arbeit endet mit einer nichtabschließenden Aufzählung von relevanten Ereignissen, die zum Ableiten von Zusammenhängen herangezogen werden können. Die vorliegende Arbeit verknüpft Sequential Pattern Mining und die Assoziationsanalyse als Data-Mining-Methoden.



Kaiser, Max;
Einsatz künstlicher Intelligenz zur Standortplanung und Transportnetzwerkoptimierung. - Ilmenau. - 103 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Ziel dieser Arbeit ist die Entwicklung einer Methodik, um mithilfe von KI die Standortplanung und die Transportnetzoptimierung im Bereich der Distributionslogistik durchzuführen. Der dafür ausgewählte Ansatz ist die Suche nach Lagerstandorten, die so gelegen sind, dass die Summe der Distanzen vom Lager aus zu den Kunden unter Berück-sichtigung unterschiedlicher Gewichtungen der Kunden möglichst gering ist. Bei der Fest-legung mehrerer Lagerstandorte müssen die Empfänger zunächst in Gruppen aufgeteilt werden. Ein weiteres Ziel der Standortplanung ist die Bestimmung der Anzahl an Lageror-ten. Die Transportnetzoptimierung beschränkt sich in dieser Arbeit lediglich auf die Be-stimmung der Lager, in denen ein bestimmtes Produkt gelagert werden soll. Eine Möglich-keit zur Unterteilung von Kunden ist die Zuordnung eines Kunden zu der Kundengruppe, zu der er die höchste Ähnlichkeit aufweist. Diese Zuordnung soll durch eine Maschine er-folgen. Dabei kommen Methoden des maschinellen Lernens zum Einsatz, welche ein Teil-gebiet der künstlichen Intelligenz darstellen. Konkret handelt es sich um Zentroid-basiertes Clustering. Da die zur Verfügung stehenden Daten nicht vollständig ausreichen, wird die Methodik außerdem um eine Initialisierungsphase und um eine Datenaufbereitungsphase ergänzt.



Hartnagel, Mike;
Multi-Agent Deep Reinforcement Learning in Modular Production Systems. - Ilmenau. - 73 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In den vergangenen Jahren wurden neue Methoden zur Erhöhung der Flexibilität von Fertigungssystemen entwickelt. Eine dieser Methoden besteht darin, anstelle einer Fließfertigungslinie die Fertigungsstationen in einem matrixförmigen Layout anzuordnen und starre Fördersysteme durch fahrerlose Transportsysteme (FTS) zu ersetzen. Die FTS transportieren die Werkstücke von Fertigungsstation zu Fertigungsstation in variabler Reihenfolge. Diese Methode wird als modulares Produktionssystem (MPS) bezeichnet. Aufgrund der Komplexität und Dynamik eines modularen Produktionssystems ergibt sich die Frage nach einem geeigneten Steuerungssystem zur Bestimmung der optimalen Folge von Fertigungsoperationen und der optimalen Route der Werkstücke von Fertigungsstation zu Fertigungsstation. Da die Route der Werkstücke von FTS bestimmt wird, kann dieses Steuerungsproblem als ein Problem der Entscheidungsfindung von FTS in modularen Produktionssystemen interpretiert werden. Ziel dieser Arbeit ist es, die Anwendbarkeit von Multi-Agent Deep Reinforcement Learning (MADRL) in Kombination mit diskret-ereignisgesteuerter Simulation zur Lösung dieses Steuerungsproblems zu testen. Dazu wurde eine MADRL Methode, genannt Multi-Agent Proximal Policy Optimization (MAPPO), in Python implementiert. Die implementierte Software wurde dann mit einem Plant Simulation-Modell eines modularen Produktionssystems verbunden, um die Agenten, welche die FTS steuern, zu trainieren. Simulationstests zeigen, dass die trainierten Agenten vergleichbare Ergebnisse wie eine heuristische Steuerungsstrategie und bessere Ergebnisse als eine zufällige Steuerungs-strategie erzielen. Darüber hinaus erzielen sie bessere Ergebnisse als die Single-Agent Deep Reinforcement-Learning Methode Proximal Policy Optimization (PPO), bei der alle FTS von einem einzigen Agenten gesteuert werden. Diese Ergebnisse zeigen die Anwendbarkeit von MADRL in Kombination mit diskret-ereignisgesteuerter Simulation zur Steuerung von FTS in modularen Produktionssystemen und die Vorteilhaftigkeit von MAPPO gegenüber der Single-Agent Methode PPO.



Process Mining zur Untersuchung von gefarmten Daten. - Ilmenau. - 106 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Ziel der vorliegenden Masterarbeit ist zu untersuchen, inwiefern Process-Mining-Methoden auf gefarmte Daten angewendet werden können. Process Mining wird normalerweise auf den Daten eines Realsystems betrieben, um Erkenntnisse über einen Prozess zu erlangen. Prozesskenntnisse führen dazu, dass Realprozesse entdeckt werden, Abweichungen zwischen der Prozessdefinition und dem Realprozess aufgedeckt werden und sich daraus Prozessverbesserungen ableiten lassen. Process Mining betrachtet die Prozesse aus verschiedenen Perspektiven, um die Erkenntnisse vollumfänglich gewinnen zu können. Grundlage des Process Mining bilden Eventlogs. Diese fordern eine eindeutige Zuordnung von Ereignissen zu einem bestimmten Vorgang. Eine eindeutige, vorgangsspezifische Kennzeichnung aller Vorgänge ist Pflicht. Währenddessen Process Mining mit realen Daten arbeitet, arbeitet Data Farming auf einem virtuellen System. In einem Simulationsmodell werden viele verschiedene Eingabeparameter verändert, um Wirkungszusammenhänge im Modell aufzudecken. Jede Eingabeparameterkonfiguration bildet die Grundlage für ein eigenes Experiment. Im Rahmen des Data Farming werden unzählige Experimente mit unterschiedlichen Eingabeparameterkonfigurationen durchgeführt. Die mittels Data Farming generierten, virtuellen Daten werden anschließend mittels Process Mining ausgewertet. Für die sinnvolle Kombination der beiden Methoden wurde ein Konzept erarbeitet, wie die einzelnen Vorgänge aus den unterschiedlichen Experimenten eindeutig gekennzeichnet werden können. Die Eventlogs wurden auch um zusätzliche Informationen ergänzt. Für die Validierung des Konzepts entstand ein Simulationsmodell, auf dem Data Farming angewendet wurde. Petri-Netze, Pfade aus den Eventlogs und Diagramme bilden die Grundlage für die Auswertung der durch das Simulationsmodell generierten Daten. Währenddessen Petri-Netze und Pfaddarstellungen überwiegend der Prozessentdeckung dienen, werden mittels Diagrammen Wirkungszusammenhänge aufgedeckt. Durch die unterschiedlichen Auswertungsmethoden konnten mehrere Perspektiven des Process Mining Anwendung finden. Bestimmte Eingabeparameterkonfigurationen führen zu längeren Durchlaufzeiten im Prozess. Durch die Kombination der beiden Methoden konnte auch ein Fehler im Simulationsprogramm aufgedeckt werden. Die Untersuchung hat gezeigt, dass sich Data Farming und Process Mining sinnvoll nacheinander anwenden lassen und die Kombination beider Methoden einen Mehrwert liefert.



Voigt, Rafael;
Resilienz von digitalen Zwillingen gegenüber kontinuierlich veränderlichen Systemen . - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Digitale Zwillinge in der Produktion sind im Kontext von Industrie 4.0 und intelligenten Fabriken von immer größerer Bedeutung. Durch neue Technologien und große Datenmengen, die in heutigen Produktionsstätten entstehen, können digitale Zwillinge immer häufiger Einzug in die Softwarelandschaft von Unternehmen finden. Jedoch muss dafür die Problematik des veränderlichen Systems „Produktionsstätte“ behandelt werden. Systemveränderungen, die durch Umbau des Systems zustande kommen, sind dabei die weniger interessanten Veränderungen, da offensichtlich ist, dass der digitale Zwilling ebenfalls geändert werden muss. Der tägliche Verschleiß von Maschinen und Werkzeugen, kontinuierliche Prozessoptimierung, sowie der ständige Wandel, dem Prozesse unterliegen sind alles relevante Faktoren, die es in Bezug auf die Anwendung digitaler Zwillinge in diesem Bereich zu berücksichtigen gilt. In der vorliegenden Arbeit wird thematisiert, wie ein digitaler Zwilling aktuell bleiben und Resilienz gegen die stetigen Veränderungen in modernen Fabriken aufbauen kann. Dafür werden Methoden vorgestellt, die eine Adaption des digitalen Zwillings ermöglichen. Adaptionsbedarfsanalyse, die Quantifizierung von Veränderungen und die Adaptionsdurchführung sind Fokus dieser Arbeit. Verschiedene stochastische Verteilungen für die Beschreibung des Systemverhaltens werden betrachtet. Statistische Hypothesentests wurden als zentrale Möglichkeit identifiziert, Adaptionsbedarf festzustellen. Gezieltes Stichprobenziehen aus Produktionsdaten ermöglichte die Schätzung der relevanten Verteilungen. Mithilfe von Schätzern, die in Iterationen an die Stichprobenverteilung angepasst werden, konnte eine Parametrisierung der Stichprobenverteilungen durchgeführt werden. In einem Prototyp-System mit einer Emulation der Realität, digitalem Zwilling und Datenbank des digitalen Zwillings wurden diese Methoden erfolgreich implementiert. Von der Emulation verschiedenartig verteilte Daten wurden unter Nutzung des Prototyps generiert. Die Adaption des digitalen Zwillings wurde über die Datenbank bewirkt. Die Wirksamkeit der kombinierten Hypothesentests mit Anpassungstests für die Adaption der Parameter im digitalen Zwilling wurde mithilfe von Experimenten evaluiert. Diese Experimente zeigen, dass mit dem System Anpassungen durchgeführt werden. Die Verteilungstyperkennung wurde als Kriterium für eine treffende Schätzung der Verteilungsparameter identifiziert. Wird die Verteilung richtig erkannt, werden auch die Parameter dieser Verteilungen treffend geschätzt. Die nötigen Schritte für eine Weiterentwicklung des Systems, sowie zukünftige Forschungsrichtungen wurden in einem Ausblick und Fazit diskutiert.



Reckleben, Nina;
Robustheitsuntersuchungen für Verkehrssimulationen. - Ilmenau. - 105 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Mobilität ist ein wesentlicher Bestandteil des alltäglichen Lebens, weshalb es wichtig ist, die Funktionalität von Verkehrsstrukturen zu gewährleisten. Im Rahmen dieser Arbeit wird die Frage beantwortet, wie eine Methode gestaltet sein sollte, mit der sich die Robustheit von Verkehrssystemen gegenüber äußeren nicht steuerbaren Einflüssen bewerten lässt. Hierfür werden verschiedene Fakten und Methoden der Verkehrssimulation sowie Robustheitsuntersuchungen dargelegt. Dabei spielt vor allem das Verständnis von Robustheit nach dem Wissenschaftler G. Taguchi eine wichtige Rolle, denn er unterscheidet bei den Einflussgrößen eines Systems zwischen solchen, die im Vorhinein bestimmt und solchen, die nicht bestimmt werden können. Die Größen werden in einem Versuchsplan gegenübergestellt und anschließend ihr Einfluss auf das System untersucht. Die Verlustfunktionen nach Taguchi finden ebenfalls ihre Anwendung und geben die Parametereinstellung wieder, bei der das System in seinen Ergebnisgrößen die niedrigsten Schwankungen aufweist. Die durchgeführte und später ausgewertete Machbarkeitsanalyse an einem Prototyp aus der Praxis untermauert, dass dieses entwickelte Konzept eine wirksame Methode der Robustheitsuntersuchungen für Verkehrssysteme ist.



Zong, Xinyu;
Automatische Clusteranalyse mittels geeigneter Metriken. - Ilmenau. - 95 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Bei Clustering-Algorithmen des maschinellen Lernens hängen die Clustering-Ergebnisse nicht nur vom Modell des Algorithmus ab, sondern auch von der Auswahl der Hyperparameter. Im Allgemeinen erfolgt die Auswahl der Hyperparameter manuell. Nach jeder Eingabe der Hyperparameterkombination werden die Ergebnisse der Berechnung ausgedruckt und eine bestimmte Metrik zur Auswertung ausgewählt. Dies ist zu zeit- und arbeitsintensiv, und die Auswahl der geeigneten Hyperparameter hängt von der Erfahrung des Benutzers ab. Deshalb ist die automatische Parametrisierung eine bessere Lösung. Der Schwerpunkt dieser Arbeit konzentriert sich auf der automatischen Parametrisierung im Clustering-Algorithmus und der Auswahl der geeigneten Metrik für die Auswertung sowie der Auswahl der optimalen Parameterkombination. Zu diesem Zweck wird zunächst die Literaturrecherche durchgeführt, um Clustering-Algorithmen und die Algorithmen zur automatischen Parametrisierung zu erlernen, dann ein Versuchsplan festgelegt und das Modell zum Testen aufgebaut: Zunächst wird ein Hyperparameterraum eingerichtet und der Datensatz importiert, das Modell des Clustering-Algorithmus wird mit dem Hyperparameter-Optimierer gekoppelt und die Clustering-Ergebnisse sowie die Bewertung der verwendeten Metrik werden ausgegeben. Schließlich werden die verschiedenen automatischen Parametrisierungsstrategien (hyperparametrische Optimierer) für die verschiedenen Algorithmen bewertet und die besten Strategien für die verschiedenen Clustering-Algorithmen ausgewählt.



De Rosa, Leandro;
Prädiktion von Auftragsreihenfolgen für die Simulation von Produktionssystemen. - Ilmenau. - 85 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Der Einsatz von Werkzeugen und Modellen des Maschinellen Lernens in der Produktionsplanung und -steuerung ist in den letzten Jahren dank des technologischen Fortschritts - hauptsächlich der Datenaufnahme - stark gewachsen. Insbesondere sind prädiktive Systeme für die Vorhersage wichtiger Ereignisse in einem Produktionssystem von besonderem Interesse. In dieser Arbeit sind Methoden des Maschinellen Lernens und der Zeitreihenanalyse und -prognose für die Vorhersage von Auftragsreihenfolgen eingesetzt worden. Dabei ist die Problemstellung in zwei Teilaufgaben - die Absatz- und die Reihenfolgeplanung - unterteilt worden. Um diese zwei Planungen durchzuführen, erfolgte zuerst eine umfassende Literaturauswertung zu den in dieser Arbeit relevanten Forschungsgebieten. Darauf aufbauend ist ein Prototyp zur Lösung der ersten Teilaufgabe entwickelt und implementiert worden. Dieser umfasst die Auswahl der einzusetzenden Verfahren, die Anforderungen an das System sowie die methodische Vorgehensweise für die Durchführung von empirischen Versuchen. Zwei Prädiktionsalgorithmen sind ausgewählt worden: das ARIMA-Modell aus der Zeitreihenanalyse und -prognose stochastischer Prozesse und das CNN-LSTM-Modell aus dem Gebiet des deep learning. Um die Leistungsfähigkeit beider Modelle zu untersuchen, ist eine Zeitreihe betrachtet worden, die eine starke Saisonalität sowie einen quasilinearen Trend aufwies. Dieser Einführungsversuch zeigte eine Vergleichbarkeit zwischen der Genauigkeit der Modelle bei einem kleineren Prognosezeitraum, während das ARIMA-Modell bei längeren Prognosehorizonten eine höhere Genauigkeit erzielte. Die Durchführung empirischer Versuche mit betrieblichen Daten zeigte, dass die Zeitreihen aufgrund ihrer Beschaffenheit schwierig zu prädizieren sind. Jedoch konnte die glatte Komponente durch Vorverarbeitung mittels Kernregression erfasst und mithilfe beider Algorithmen vorhergesagt werden. Das CNN-LSTM-Modell zeigte in diesem Versuch keine Generalisierungsfähigkeit, während das ARIMA-Modell zuverlässigere Prognosen lieferte. Die dadurch erstellen Nachfrageprognosen sind schließlich erfolgreich in einer vereinfachten Produktionsumgebung für die Bestimmung der Reihenfolge für einen vorgegebenen Zeitraum eingesetzt worden. Eine Automatisierung der Verbindung zwischen beiden Planungen ist erreicht worden und stellt somit das relevanteste Forschungsergebnis dieser Arbeit dar.



Laufer, Jannik;
Einsatz von digitalen Werkerassistenzsystemen in der variantenreichen Fertigung. - Ilmenau. - 133 Seiten
Technische Universität Ilmenau, Masterarbeit 2021

Industrieunternehmen stehen zunehmend vor der Herausforderung immer kundenspezifischere Erzeugnisse herzustellen. Die resultierende variantenreiche Fertigung steigert oft die Komplexität von Arbeitsaufgaben der Werker und damit deren kognitiven Belastung. Werkerassistenzsysteme versprechen eine bedarfsgerechte Bereitstellung von Informationen, um den Werker bei der Beherrschung dieser Komplexität zu unterstützen. Bei der Auswahl von Werkerassistenzsystemen werden allerdings vermehrt die Rahmenbedingungen in Fertigung und IT sowie die Betreibersicht vernachlässigt. Daher ist es vor allem bei der variantenreichen Fertigung notwendig, die Aufwände für die Bereitstellung und Verwaltung der Informationen im Werkerassistenzsystem zu berücksichtigen. Ziel dieser Masterarbeit ist es, ein Konzept für die Auswahl geeigneter Werkerassistenzsysteme bei variantenreicher Fertigung zu entwickeln. Dadurch soll vermieden werden, dass in der Praxis Systeme eingesetzt werden, deren Aufwände für die Bereitstellung und Verwaltung von Informationen den potentiellen Nutzen übersteigen. Zusätzlich soll geprüft werden, wie eine zukunftsfähige IT-Architektur gestaltet werden kann und ob ein standardisiertes Informationsmodell als Basis verschiedener Lösungen zur Werkerassistenz genutzt werden kann. Dafür wurden Experten befragt, die bereits Werkerassistenzsysteme in einem Industrieunternehmen mit variantenreicher Fertigung einsetzen. Als Grundlage dieser empirischen Untersuchung dienen morphologische Kästen, die sowohl die Lösung als auch deren Rahmenbedingungen in Fertigung und IT klassifizieren. Das Konzept zeigt, dass sich die Werkerassistenzsysteme in drei Archetypen einordnen lassen, die sich hauptsächlich durch den Automatisierungsgrad des Variantenmanagements unterscheiden. Bei manuellen und teilweise generischen Werkerassistenzsystemen erfolgt die Erstellung und Verwaltung von Informationen für jede Variante einzeln. Generische Systeme können diese dahingegen automatisch aus einem Informationsmodell erstellen. In Abhängigkeit der Komplexität von Rahmenbedingungen in der Fertigung konnten so sinnvolle Einsatzbereiche für die Archetypen aus Betreibersicht abgeleitet werden. Das soll z.B. Fertigungsplanern in der Praxis eine systematische Auswahl von sinnvollen Werkerassistenzsystemen ermöglichen, bei denen auch die Aufwände für den Lösungsbetrieb berücksichtigt sind. Es wird zudem am Beispiel eines generischen Werkerassistenzsystems gezeigt, wie eine IT-Architektur und ein Informationsmodell gestaltet werden können. Weiterführende Forschung könnte am Konzept für die Auswahl geeigneter Werkerassistenzsysteme anknüpfen und die Reduktion des Aufwands für die Erstellung und Verwaltung von Informationen bei variantenreicher Fertigung thematisieren.