Bachelor Theses

Results: 50
Created on: Tue, 23 Apr 2024 23:02:34 +0200 in 0.3210 sec


Platzdasch, Florentine;
Visual Analytics : Kriterien für die visuelle Simulationsdatenanalyse. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Im Rahmen dieser Arbeit werden Kriterien für Visualisierung im Sinne der Visual Analytics erarbeitet. Deren Anwendung auf Simulationsdaten, welche durch Data Farming erzeugt wurden, ist Bestandteil der Recherche. Mit Hilfe dieser Kriterien sollen aufschlussreiche, nachvollziehbare und fehlerminimale Visualisierungen möglich gemacht werden. Neben grundlegenden Begriffsdefinitionen für Big Data, Simulation, Data-Mining und Data Farming, werden in Form eines State-of-the-Art Reviews Visual Analytics und deren Besonderheiten beschrieben. Dabei werden einige Definitionen und Ziele, sowie Technische Problemklassen erläutert. Ebenso werden Zielgruppen und Anwendungsbereiche betrachtet, die die Notwendigkeit der Visual Analytics verdeutlichen. Der Prozess der Visual Analytics und wichtige Grundpfeiler der werden in ihren Eigenschaften dargestellt, um die Interdisziplinarität dieses Forschungsgebiets abzubilden. Im Hauptteil der Arbeit wird ein Anforderungskatalog an Kriterien für die visuelle Simulationsdatenanalyse ausgearbeitet. Zuletzt werden die wichtigsten Anforderungen an Visualisierungen beschrieben und darauf aufbauend die zugehörigen Kriterien erklärt. Aufgrund der Komplexität der zu beachtenden Faktoren ist eine individuelle Kombination und Auswahl der Visualisierungsmethoden notwendig. Der in dieser Arbeit formulierte Anforderungskatalog bietet einen Orientierungsrahmen für diese Auswahl, jedoch keine Schritt-für-Schritt-Anleitung.



Schmidt, Hans;
Materialversorgungskonzepte in der flexiblen modularen Fertigung. - Ilmenau. - 47 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Zusammenfassend sei gesagt, dass die anhaltenden Trends auf den Käufermärkten, hin zu einer breiten Diversität an Produkten und einer schwer vorhersagbaren Nachfrage, Herausforderungen für die heutigen Produktionssystem darstellen. Diesen Herausforderungen wird versucht mit einer aufwendigen Anpassung des bestehenden Produktionssystems bei-zukommen. Jedoch könnte es bei den anhaltenden Trends sinnvoll sein, das Produktionssystem komplett zu überarbeiten. Diese Überarbeitung kann im Ergebnis die Einführung einer modularen Produktion zur Folge haben. Eine solche modulare Produktion benötigt flexible, abgeschlossenen und entkoppelte Prozesse, welche auch bei der Materialversorgung gegeben sein müssen. Die Frage die sich dabei stellt ist, welche Materialversorgungskonzepte sich am besten für eine modulare Fertigung eignen. Diese Frage sollte in dieser Arbeit, zumindest im groben Umfang beantwortete werden. Die Arbeit soll Empfehlungen für die Materialversorgung bestimmter Teilkategorien sichtbar machen. Diese Empfehlungen können dann genutzt werden, um anschließende potenzielle Forschungsfelder in den Fokus zu bringen. In der Arbeit wurde ein Vergleich zwischen sechs verschiedenen Materialversorgungskonzepten angestellt. Bei den verglichenen Materialversorgungskonzepten handelt es sich um die Konzepte des Gabelstaplers, FTF, Routenzugs, Warenkorbs, Kombination aus Warenkorb und Gabelstapler, und Kombination aus Routenzug und FTF. Beim Vergleich der Ergebnisse der Simulationen, lassen sich folgende Schlussfolgerungen anstellen. Zum einen scheint, bei der Betrachtung des absoluten Outputs, das Warenkorbkonzept zum Teil klar im Vorteil zu liegen. Je nach umgesetztem Konzept können die Outputzahlen der Simulationen um ein Drittel höher liegen als bei den andern Materialversorgungskonzepten. Eine näher Untersuchung des Warenkorbkonzepts ist jedoch nicht möglich, da es die Modellierung vorgelagerter Arbeitsschritte erfordern würde. Deswegen konnte sich bei der tiefergehenden Analyse der Daten nur auf die restlichen Konzepte berufen werden. Bei der weiteren Analyse der Daten stellt sich heraus, dass die Konzepte mit Beteiligung eines Routenzugs, am besten für unspezifische Teile geeignet sind. Der Grund liegt im hohen Durchsatz dieser Materialversorgungstechnik (Routenzug), welche sich am besten auf starre und wiederkehrende Bedürfnisse einstellen lässt. Aus den Daten bildet sich jedoch auch heraus, dass die spezifischen Teile am besten mit Materialversorgungskonzepten transportiert werden sollten, welche eine Lieferung auf Abruf ermöglichen. Diese Konzepte sind deutlich effizienter bei der Versorgung spezifischer und flexibler Bedürfnisse der Stationen. Jedoch bildet sich, gerade bei der Betrachtung der Wartezeit der Stationen, nicht die erwartete Überlegenheit der kombinierten Konzepte heraus. Was an der Blockade der Transportmittel untereinander liegen könnte (Routenzug und FTF).



Alpermann, Maximilian;
Untersuchung von Beschleunigungssensoren als Datenquelle für Predictive Maintenance anhand eines Ventils in der Halbleiterindustrie. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

In dieser Arbeit wurde untersucht, ob ein Predictive-Maintenance-System auf Basis von Beschleunigungsdaten funktionieren kann, als Beispiel wurde dafür ein Ventil aus der Halbleiterindustrie genutzt. In vorherigen Studien wurde gezeigt, dass sich das Remaining Useful Life von Kugellagern vorhersagen lässt, in dieser Arbeit wird untersucht, ob dies auch bei Ventilen mit Kugel-Linearführungen möglich ist. Dafür wurde aus den Beschleunigungsdaten ein Health Indicator erstellt und der Verlauf dieses wurde mit einem ARIMA-Modell vorhergesagt. Aus dem vorhergesagten Verlauf ließ sich mit einem Schadensschwellwert eine Vorhersage für das Remaining Useful Life machen. Es wurde gezeigt, dass ein Predictive-Maintenance-System auf Basis von Beschleunigungsdaten funktionieren kann. Durch steigende Kosten von Halbleitproduktionsprozessen und steigende Anforderungen an die Zuverlässigkeit von Ventilen in der Halbleiterindustrie werden Predictive-Maintenance-Systeme in Zukunft in dieser Anwendung an Bedeutung gewinnen.



Ehrle, Steven;
Modulare Montagesysteme: Analyse und Optimierung verschiedener Grundlayouttypen. - Ilmenau. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Diese Arbeit beinhaltet eine Analyse und Optimierung verschiedener Grundlayouttypen innerhalb eines modularen Montagesystems. Den Einstieg bildet die Motivation und Problemstellung, die Zielstellung, die Methodik und der Einblick in den Aufbau der Arbeit. Im Anschluss daran erfolgt eine kurze Definition der themennahmen Fachbegriffe. Die Ergebnisse des Literatur-Reviews bilden die Grundlage für den aktuellen Stand der Forschung, welcher dem Leser einen Einblick in die Thematik(en) verschafft. Zentraler Bestandteil des darauffolgenden Abschnitts ist die Vorstellung der verschiedenen Layoutvarianten und der dazugehörigen Einschätzung hinsichtlich der Umsetzbarkeit in einer typischen Produktionsumgebung. Daran anschließend thematisiert der fünfte Abschnitt die Vorstellung des erstellten prototypischen Anwendungssystem, welches grundsätzlich auf dem Modell des Fachgebietes der Informationstechnik in Produktion und Logistik basiert, und dem verwendeten Experimentdesign. Ziel ist die Schaffung einer transparenten Vergleichsgrundlage für das nachfolgende Kapitel. Nach der Analyse der erzeugten Simulationsdaten vollendet das Aufzeigen von vorhandenen Optimierungspotenzialen das sechste Kapitel. Im letzten Abschnitt der Arbeit erfolgt eine kurze Zusammenfassung und ein Ausblick auf anschließende Forschungsfragen.



Kunnari, Aatu Juhani;
State of the Art - Steuerung von Produktionssystemen. - Ilmenau. - 69 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Arbeit wird es eine Literaturübersicht auf dem Gebiet der Produktionssteuerung geben. Die Forschung auf dem Gebiet der Produktionssteuerung ist vielseitig. Auf vielen Teilgebieten der Forschung gab es in den vergangenen Jahren große Entwicklungen. So wurden sowohl im Bereich der Produktionsplanung, der Fabrikplanung und der Fabriksteuerung als auch auf technischen Forschungsgebieten viele Sachverhalte erforscht. Um einen Überblick über die aktuellen Trends auf diesem weit gefächerten Gebieten zu ermöglichen, fasst diese Arbeit Literatur zusammen. Dabei werden die wichtigsten Bereiche der Produktion abgedeckt: Planung, Steuerung und Technologien. Es werden beispielsweise Heuristiken in der Planung, zentrale und dezentrale Steuerungssysteme und Cloud/Fog/Edge Computing genauer betrachtet. Mittels dieser Arbeit können dominante Strömungen in den einzelnen Bereichen und einige weniger aussichtsreiche Richtungen erkannt werden. Zusätzlich zu den aktuellen Trends werden ebenfalls Vorhersagen getroffen, wie in den unterschiedlichen Gebieten in der Zukunft weiter geforscht werden wird. Auch eine zusammenfassende Vorhersage über einen kombinierten Trend, in dessen Richtung die Forschung sich in der Zukunft womöglich richten wird, wird getroffen.



Skorykh, Oleksandra;
Metalearning zur Automatisierung von Machine Learning. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Die vorliegende Arbeit befasst sich mit Metalearning als eine der Methoden des automatisierten Machine Learning. Die Hauptaufgabe des Metalearning ist es, Wissen aus vorherigen Erfahrungen zu generieren und es auf neue Aufgaben anzuwenden. Dabei werden die Machine Learning Modelle nicht von Grund auf neu entwickelt, sondern auf Basis Daten aus vorherigen Lernerfahrungen Außerdem wird das Metalearning unterstützend für die Empfehlung von Algorithmen, Parametern oder Konfigurationen eingesetzt. Im Rahmen der Arbeit wurde eine umfassende State-of-the-Art Review durchgeführt und aufbereitet. Dazu wurden die Prozessschritte einer Machine Learning Pipeline analysiert und die Teilbereiche mit dem größten Automatisierungspotenzial in Bezug auf die Verwendungsmöglichkeit des Metalearning identifiziert. Des Weiteren wurde Metalearning genauer definiert und die Funktionsweise eines Metalearning-Systems beleuchtet. Hierfür wurden zwei Ausprägungen eines Metalearning-Systems geschildert und ausführlich aus der Perspektive des Wissenserwerbs und der Empfehlung der angeforderten Artefakten bei den neuen Lernaufgaben erklärt. Weiterhin wurden drei zentrale Recherchen der Kategorisierung von Metalearning Methoden und Techniken analysiert, die sich in ihrem Vorgehen unterscheiden. Der erste Ansatz, die Methoden des Metalearning zu unterteilen, basiert auf der Referenzarchitektur eines Empfehlungssystems. Der zweite Ansatz beruht auf der Kategorisierung nach Quellen der Metadaten und erweitert somit die erste Unterteilung. Die dritte Kategorisierung stützt sich auf Arten der Metalearning-Algorithmen, die mithilfe von neuronalen Netzen zum Einsatz kommen. Des Weiteren wurde ein Metalearning-System für die Empfehlung der Algorithmen in Betracht gezogen und analysiert. Dabei besteht das Empfehlungssystem aus einer Datenbank mit Metadaten, die aus den vorherigen Lernerfahrungen aufbereitet wurden und einem Metalearning-Algorithmus, der die Metadaten zu neuen Datensätzen mappt. Das Empfehlungssystems kann auf weitere Anwendungsfälle wie die Auswahl und das Ranking von Hyperparamatern oder neuronaler Architektur angewendet werden. Neben dem Empfehlungscharakter kann das Metalearning auch für die Wissensübertragung im Bereich Transfer Learning sowie Few-Shot Learning zum Einsatz kommen. Abschließend wurde eine Zusammenfassung der analysierten Einordnung erstellt und im Zusammenhang mit der automatisierten Algorithmen- und Hyperparameterauswahl aufbereitet. Darauf aufbauend wurde ein Forschungsbedarf abgeleitet.



State of the Art : Simulation von komplexen Netzwerken. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Das Ziel dieser Arbeit war die Betrachtung des State of the Art der Simulation von Komplexen Netzwerken. Es wurden die Komplexen Netzwerke herausgefiltert, zu denen aktuell die meiste Forschung im Bereich der Simulationen betrieben wird. Sensornetze, Stromnetze, Mobilfunknetze und Verkehrsnetze haben sich nach vorher festgelegten Auswahlparametern für eine Analyse im Rahmen dieser Bachelorarbeit qualifiziert. Im Rahmen der Auswertung wurden die komplexen Netzwerke sowohl bezüglich themenspezifischer Aspekte als auch des Gesamtprozesses der Vorbereitung, Modellierung und Auswertung der Simulationen betrachtet. Inhaltliche Schwerpunkte der Forschung innerhalb der Netzwerke wurden aufgezeigt. In Bezug auf die Sensornetze spielt der Energieverbrauch aufgrund der begrenzten Energiespeicherkapazitäten der Sensoren eine wichtige Rolle. Bei den Stromnetzen bilden die dezentrale Stromeinspeisung und die damit verbundenen Spannungsschwankungen und die Speicherproblematik die zentralen Forschungsfragen. Bei Mobilfunknetzen werden besonders die LTE- und 5G-Technologien betrachtet. Im Bereich der Verkehrsnetze wird sich verstärkt auf Fahrzeug-Ad-Hoc-Netze konzentriert. Zudem wurden Themen identifiziert, die die Grundlage weiterführender Forschung sein könnten. Bezüglich der Simulationstechniken wurden die Diskrete Simulation, die Agentenbasierte Simulation und System Dynamics unterschieden. Es hat sich herausgestellt, dass ein sehr starker Fokus auf die Diskrete Simulation gelegt wird, jedoch hängt die Auswahl der Simulationstechnik immer auch von den betrachteten Simulationsparametern, besonders aber von der Art des Netzwerks, ab.



Binder, Daniel Andreas;
Evaluierung von Varianten der Anbindung von speicherprogrammierbaren Steuerungen an das Robot Operating System. - Ilmenau. - 46 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Innerhalb der HENKEL + ROTH GmbH wird ein mobiler Roboter mit variablen Handhabungseinrichtungen entwickelt. Die hauptsächlichen Steuerungseinrichtungen dieses cyberphysischen Systems (CPS) sind eine speicherprogrammierbare Steuerung (SPS) und das Robot Operating System (ROS). Zum Austausch von Informationen wird in diesem CPS eine vom Unternehmen entwickelte Schnittstelle basierend auf dem Modbus-Protokoll verwendet. Das Ziel der vorliegenden Bachelorarbeit ist es, unter Verwendung der Open Platform Communications Unified Architecture (OPC UA), eine alternative Schnittstelle zwischen diesen Steuerungen zu entwickeln. Dazu werden der mobile Roboter und die bestehende Modbus-Schnittstelle analysiert. Anschließend wird auf Basis der Analyseergebnisse ein OPC UA-Informationsmodell aufgestellt und in einem Testaufbau implementiert sowie evaluiert. Die Implementation und Evaluation zeigen Rahmenbedingungen auf, die für diese Schnittstelle zwischen ROS und SPS gegeben sein müssen. Weiterhin zeigt diese Arbeit, dass die entwickelte OPC UA-basierende Schnittstelle zwischen ROS und SPS funktionsfähig ist, aber unter den gegebenen Rahmenbedingungen kaum Vorteile gegenüber der Modbus-Schnittstelle bietet.



Berthold, Pia;
Potenziale einer durchgängigen digitalen Planung und Analyse von Wertströmen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Zur Umsetzung der Digitalen Fabrik werden in Unternehmen unterschiedlichste Hilfsmittel eingesetzt. Im Bereich der Fertigungsplanung sind dies zum Beispiel IT Werkzeuge, welche die Layoutplanung ermöglichen, den Wertstrom darstellen, die Arbeitsorganisation auslegen, das Kanbansystem dimensionieren und die Kombination der Wertströme und Nivellierung einer Fertigung simulieren. All diese IT - Werkzeuge sollen die digitale Planung und Analyse von Wertströmen unterstützen. Viele dieser Werkzeuge benötigen zur Anwendung eine Anzahl an Informationen, wie beispielsweise Stückzahlen und Sachnummern. Aktuell werden die benannten Werkzeuge angewendet und verursachen dabei häufig Fehlergebnisse, Fehlentscheidungen, Kosten, generieren Verschwendung und bewirken, dass viele Arbeitsschritte mehrfach ausgeführt werden. Das Hauptaugenmerkt dieser Arbeit liegt auf diesen 5 betrachteten Werkzeugen und deren Informationsflüsse. Diese Fehler wurden anhand eines Praxis Beispiels bestätigt, denn oftmals ist es so, dass dieselben Informationen (wie Sachnummern und Stückzahlen) zur Durchführung der Werkzeuge benötigt werden. Um diese Fehler und Verschwendungen zu beheben wurde ein Soll Konzept entwickelt, welches alle Informationsflüsse der Werkzeuge aufzeigt und dadurch ein durchgängiges digitales Planen und Analysieren von Wertströmen mit garantiert. Das aufgestellte Soll - Konzept umfasst eine zentrale Datenbank, welche die relevanten Input und Output Informationen der Werkzeuge enthält. Zusammengefasst wurden hier die Informationsflüsse einer Ist Situation herausgearbeitet, und mit Hilfe dieser ein Soll Konzept entwickelt.



Muhra, Michael;
Konzeption und prototypische Implementierung eines Visual-Analytics-Systems zur Verringerung der Ausbringungsverluste eines Fließproduktionssystems. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In der moderneren Fertigung werden durch die Digitalisierung und im Zuge von Industrie 4.0 stetig mehr Daten generiert. Diese großen und komplexen Datenmengen lassen sich nicht mehr mit Standardanwendungen analysieren. Das Ziel dieser Arbeit bestand darin, mit Hilfe eines Visual-Analytics-Systems die technischen Betriebsdaten eines seriellen Fließproduktionssystems zu analysieren, um Ausbringungsverluste sowie deren Ursachen zu identifizieren und dabei zu unterstützen diese zu reduzieren. Es wurde ein Konzept für ein Visual-Analytics-System erarbeitet, welches erfolgreich an einer Produktionslinie in einem Produktionsbetrieb prototypisch implementiert und evaluiert wurde. Das Visual-Analytics-System wurde als webbasiertes System implementiert, mit der Möglichkeit weitere Produktionslinien zu integrieren. Mit dem neuen entwickelten Visual-Analytics-System konnten neue Erkenntnisse erlangt werden, die zur Verringerung der Ausbringungsverluste des Fließproduktionssystems beitragen. Das Visual-Analytics-System ist erweiterbar und weist noch ein großes Potential für weitere Entwicklungen auf.



Entwicklung eines Auswahlprozesses zur Bestimmung des geeigneten Materialversorgungskonzeptes für mehrstufige Fertigungssysteme : eine beispielhafte Betrachtung des Produktionswertstroms Heißfilmluftmassenmesser. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Produktionsunternehmen sind heutzutage ständigem Wettbewerbs- und Kostendruck ausgesetzt. Die geeignete Gestaltung von produktionslogistischen Vorgängen und Systemen, die der Realisierung von verschwendungsfreien Abläufen dient, rückt aus diesem Grund immer mehr in den Vordergrund. Ein wichtiger Bestandteil der Produktionslogistik ist die innerbetriebliche Materialbereitstellung. Sie ist für die Anstellung der Materialien am Arbeitssystem zuständig. Um Störungen zu vermeiden, ist eine Anstellung der richtigen Menge zum Zeitpunkt des Bedarfs in der Fertigung notwendig. Verzögerungen, die beispielsweise durch fehlendes Material entstehen, können sich bei mehrstufigen Produktionen auf die nachgelagerten Produktionsstufen auswirken. Die Planung der Materialversorgungsvorgänge ist oft mit hohem Aufwand verbunden. Hinzukommend ist ein erneutes Vorgehen der Planung notwendig, wenn Produkte wechseln, variieren oder neugestaltet werden. Ein einheitlich definiertes Verfahren zur Planung und Steuerung der internen Materialflüsse von der Bereitstellungsquelle zur Produktion fehlt. Aus diesem Anlass wird in der vorliegenden Arbeit eine Methodik zur Wahl der geeigneten Materialbereitstellungsstrategie entwickelt. Diese Methodik verdeutlicht die Vorgehensweise zur standardisierten Planung mit Hilfe der Identifikation und Interpretation von entscheidenden logistischen Faktoren, Materialeigenschaften und weiteren Merkmalen. Jedem Material wird dabei eine Strategie zugeordnet. Die Kombination der Strategien bildet schlussendlich die Basis für das Konzept, das richtungsweisend für die Implementierung der Bereitstellungsmethoden im Unternehmen ist. Die Anwendung des Auswahlprozesses ermöglicht einheitliche Planungsergebnisse und ist gleichermaßen vor dem Produktionsstart als auch nach dem Start durchführbar.



Schleizer, Fabian;
Bayessche Netze zur Auswertung von Data-Farming-Experimenten. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Data Farming bezeichnet ein echtes, zeitdynamisches Simulationsmodell, welches eine große Mengen an Ergebnisdaten erzeugt. Um neues Wissen in den gewonnenen Datenmengen zu entdecken, wird der Datensatz mit einem Data-Mining-Algorithmus untersucht. Eine Data-Mining-Methode ist das Bayessche Netz. In dieser Arbeit wurde eine prototypische Data-Farming-Studie durchgeführt und der entstandene Datensatz mit einem Bayesschen Netz analysiert. Dabei wurde zuerst auf die Grundlagen der Simulation, des Data Farming und der Bayesschen Netze eingegangen. Im nächsten Schritt konnte ein Konzept für die prototypische Implementierung aufgestellt und im Anschluss durchgeführt werden. Um die Leistungsfähigkeit der Bayesschen Netze im Kontext des Data Farmings zu untersuchen, wurde ein deterministisches Simulationsmodell erstellt und zur Datenerzeugung verwendet. Auf Grundlage der erstellten Daten konnte einerseits ein Bayessches Netz automatisch mit einem Algorithmus und andererseits manuell vom Autoren erstellt werden. Durch den Vergleich der beiden Graphen und durch angewandte Inferenz konnte neues Wissen entdeckt werden. Die vom Bayesschen Netz getroffenen Vorhersagen konnten mit einer Korrektheit von 94 % beweisen, welche Zuverlässigkeit und welches Potenzial in den Methoden der Bayesschen Netze stecken. Zur Überprüfung der Robustheit eines Bayesschen Netzes gegenüber den Einflüssen einer Data-Farming-Studie wurde das Simulationsmodell nach und nach abgeändert. Hierbei wurden stochastische Einflüsse mit zufälligen Maschinenstörungen aufgenommen oder unterschiedliche Experimentdesigns verwendet. Gegenüber dem deterministischen Simulationsmodell hat das Modell mit stochastischen Einflüssen nur eine minimale Verschlechterung der Vorhersagegenauigkeit verzeichnen müssen. Anders sah das Ergebnis im Vergleich zu den Experimentdesigns aus: Die Genauigkeit reduzierte sich um 20 % und mehr. Im Anschluss wurden Überlegungen angestellt, wie die Analyseergebnisse einem Anwender präsentiert werden können. Neben einer Graphendarstellung und der Verwendung von Balkendiagrammen und Histogrammen wurde eine bessere Darstellung und Zusammenfassung der Inferenzergebnisse vorgeschlagen. In dieser Arbeit konnte die Arbeitsweise und Leistungsfähigkeit der Bayesschen Netze in Verbindung mit einer Data-Farming-Studie aufgezeigt und Verbesserungsvorschläge gemacht werden.



Dontsov, Artem;
Frequency Domain Experimente für die Simulation von Produktions- und Logistiksystemen - State of the Art und prototypische Implementierung. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Die Untersuchung aller Faktorkombinationen komplexer Systeme ist oft zeit- und ressourcenaufwändig. Schruben und Cogliano schlugen 1981 die Vorgehensweise der Frequency Domain Methode vor, die ermöglicht, viele Faktoren in wenigen Durchläufen zu überprüfen, indem die Faktoren während des Experiments sinusförmig oszilliert werden. Die daraus entstehende Output-Zeitreihe wird mittels Fourier Analyse untersucht, um somit relevante Faktoren anhand ihrer Frequenz zu identifizieren. Ziel dieser Arbeit ist, die Grundlagen für die Frequency Domain Methode herauszuarbeiten, sowie diese prototypisch auf simple Modellen anzuwenden. Um ein grundlegendes Verständnis zu schaffen, wurde online und offline Literatur zu diesem Thema recherchiert. Mittels Tecnomatix Plant Simulation 14 wurden einfache Modelle erstellt und die Anwendung dieser Methode simuliert. Die Auswertung der Daten erfolgte mit einem Matlab-Skript, das sowohl eine graphische Analyse als auch eine statistische Analyse mittels Signifikanzleveln ermöglicht. Die Ergebnisse der Arbeit lassen darauf schließen, dass es möglich ist, die Frequency Domain Methode auf simple Modelle von Produktions- und Logistiksystemen anzuwenden. Die Verwendung für Modelle realer Systeme oder eine Methode zur Bestimmung der optimalen Amplitude von Input-Faktoren sind allerdings nicht ausreichend untersucht und können in weiteren Forschungsarbeiten entwickelt werden.



Werchan, Martin;
Performancevergleich von Simulatoren für das Data Farming im Kontext von Produktionssystemen. - Ilmenau. - 35 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Ziel der Arbeit ist, zu klären, ob es für das Data Farming einen, auf Grundlage der Performanz, besten Simulator gibt. Zunächst werden die theoretischen Grundlagen erläutert, zu denen Definitionen von Simulation, Performanz sowie des Data Farming gehören. Anschließend wird ein Kennzahlensystem zur Einschätzung der Performanz entwickelt. Der Fokus liegt auf den Eigenschaften Effizienz und Bedienbarkeit. Das Kennzahlensystem wird an einer Reihe Szenarien getestet. In der Auswertung werden die Simulatoren hinsichtlich ihrer Stärken und Schwächen verglichen. Es hat sich herausgestellt, dass SLX sowie AnyLogic zur Durchführung eines Data-Farming-Projektes am besten geeignet sind.



Tong, Mai Linh;
Reinforcement Learning im Supply Chain Management. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Durch die Zunahme der Digitalisierung hat das maschinelle Lernen deutlich an ihre Bedeutung gewonnen. Es kann durch seine Lernfähigkeit bemerkenswerte Ergebnisse erbringen. Eines der bekanntesten Lernalgorithmen ist das Reinforcement Learning. Diese Arbeit gibt mittels einer Literaturauswertung einen Überblick über den aktuellen Stand der Forschung in den Bereich, der für den Einsatz von Reinforcement Learning im Kontext Supply Chain Management von besonderer Bedeutung ist. Das Resultat der Untersuchung hat gezeigt, dass die vorgestellten Ansätze einen Beitrag zur Optimierung in der Produktionsplanung und Steuerung leisten können. So wurden beispielweise mittels der Reinforcement-Learning-Methode die Produktionskosten in einem zweistufigen Produktionsverfahren optimiert. Ein weiteres Einsatzgebiet stellt die Verbesserung der Lieferkette dar. In diesem Bereich wurde mit Hilfe von Reinforcement Learning beispielweise der Bullwhip-Effekt, welcher als Problem bei unternehmensübergreifenden Lieferketten auftritt, reduziert. Zusammenfassend lässt sich feststellen, dass der Einsatz des Reinforcement Learning in den untersuchten Quellen eindeutige Verbesserung in der Supply Chain Management ergab. Der Grund für den Einsatz von Reinforcement Learning ist die Reduzierung der Kosten in der Lieferketten sowie die Optimierung der Produktionssysteme.



Weiler, Sven-Leonhard;
KI-Spieler im Unternehmensplanspiel : Theorie und Prototyp. - Ilmenau. - 34 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Im Mittelpunkt dieser Arbeit lag die Erforschung des State of the Art im Bereich von KI-Spielern in Planspielen. Dieses Thema ist anscheinend bislang unbeachtet, den es gibt keine konkreten Arbeiten auf die man sich stützen kann. Das Ziel einen einfachen Prototyp eines KI-Spielers für das Planspiel "webLOOP" zu erstellen wurde erreicht. Im direkten Vergleich zu einem menschlichen Spieler, konnte der simple regelbasierte KI-Spieler allerdings nicht überzeugen. Eine weitere Optimierung und eventuelle Anpassung der KI-Methode ist vonnöten.



Preußer, Lukas;
Engpassanalyse und -identifikation mittels Materialflusssimulation. - Ilmenau. - 43 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Um am derzeitigen Markt, der durch enormen Wettbewerb geprägt ist, bestehen zu können, sind Industrieunternehmen gezwungen, interne Produktions- und Logistikprozesse kontinuierlich zu optimieren. Nach der Theory of Constraints wird die Leistungsfähigkeit eines Unternehmens von einem restriktiven Faktor, einem Engpass, beschränkt. Um eine Optimierung an diesem Engpass durchführen zu können, muss dieser in den heute komplexen und dynamischen Produktionssystemen identifiziert werden. Dies kann durch Materialflusssimulation erreicht werden. Im ersten Teil der Ausarbeitung werden unterschiedliche Engpassarten und -ursachen erläutert und eine Reihe von simulationsbasierten Engpassidentifikationsmethoden, die sich auf verschiedene Ansätze stützen, dargestellt. Des Weiteren werden Grundlagen zur Digitalen Fabrik und Simulation erläutert. Der zweite Teil der Ausarbeitung befasst sich mit der Anwendung einer Auswahl von Engpassidentifikationsmethoden. Mit Hilfe des Simulationsprogrammes FACTS Analyzer werden die Auslastungs-Methode, die Shifting-Bottleneck-Methode und die SCORE-Methode auf zwei verschiedene Prozessmodelle angewandt. Durch diese Anwendung können die unterschiedlichen Methoden verglichen werden, um so Rückschlüsse auf die Brauchbarkeit von Materialflusssimulation zur Engpassanalyse und -identifizierung zu ziehen.



Bode, Achim;
Untersuchung des State-of-the-Art im Bereich Ergonomiesimulation. - Ilmenau. - 40 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Die Nachfrage nach individuellen Produkten in Verbindung mit der stattfindenden Globalisierung führt zu einer Verkürzung von Produktinnovationszyklen. Um diesen Ansprüchen gerecht zu werden benötigen Unternehmen eine flexible Produktion und somit auch eine gesundheitlich intakte Belegschaft. Besonders in der Produktion liegt allerdings meist eine erhöhte körperliche Belastung vor, welche zum Ausfall von Arbeitskräften auf Grund von körperlichen Erkrankungen führen kann. Zudem hat ebenfalls der in Deutschland stattfindende demographische Wandel einen Einfluss auf den Anstieg von Erkrankungen des Muskel-Skelett-Systems und des Bindegewebes, da die Anfälligkeit für diese Erkrankungen mit steigendem Alter zunimmt. Im Jahr 2014 hatte allein in Deutschland der Ausfall von Arbeitskräften auf Grund von Krankheiten des Muskel-Skelett-Systems und des Bindegewebes eine Einbuße an Bruttowertschöpfung von 20,8 Milliarden Euro zur Folge. Da sich die Arbeitsbedingungen in gewissen Branchen in Hinblick auf kurze Taktzeiten, hohe Auslastungen und Wechselschichtarbeit allerdings nur schwer ändern lassen ist die ergonomische Gestaltung der Arbeit ein wichtiger Ansatz zur Verbesserung der Gesundheit von Arbeitskräften. Um Arbeitsabläufe hinsichtlich der Ergonomie zu optimieren ist jedoch eine frühzeitige Feststellung von gesundheitlich bedenklichen Bewegungsabläufen hilfreich. Durch den Einsatz von Software zur Untersuchung von Arbeitsabläufen anhand von digitalen Menschenmodellen können bereits in der Entwicklungsphase Risiken identifiziert und behoben werden. Allerdings besteht hierfür zunächst die Herausforderung, sowohl den komplexen menschlichen Körper, als auch dessen Bewegungsabläufe, digital abzubilden. Dieser wird meist in einer vereinfachten Form in der Software dargestellt, die allerdings für Analysen hinsichtlich der Ergonomie ausreicht. So bieten heutige Softwarelösungen auf diesem Gebiet zahlreiche Möglichkeiten, Arbeitsabläufe, Fahrzeuginnenräume oder andere Szenarien hinsichtlich diverser Aspekte in Verbindung mit einem digitalen Modell des Menschen zu analysieren. Insgesamt wird sowohl in der Literatur als auch im Rahmen einer in dieser Arbeit durchgeführten Simulation der Nutzen von Softwarelösungen auf diesem Gebiet als positiv bewertet. Allerdings werden ebenfalls die Komplexität, der hohe Aufwand und das für die Durchführung einer solchen Simulation notwendige Fachwissen hervorgehoben.



Meye, Felix;
Planung und Steuerung in einem mittelständischen Industrieunternehmen am Beispiel der Einführung eines Manufacturing Execution Systems (MES). - Ilmenau. - 68 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2017

Diese Bachelorarbeit beinhaltet die Darstellung der Einführung des MES "SIMATEC IT" der Siemens AG und ist bezogen auf die Einführung des Planungsleitstandes in Form eines APS-Systems in die HASEC-Elektronik GmbH. Der Autor beschreibt eine Planungsmethode, die die Planungskomplexität aus diesem mittelständischen Unternehmen nehmen und letztlich die Produktion transparent und ökonomisch steuern soll. Die Ausarbeitung geht zunächst auf die theoretischen Grundlagen von ERP-, MES-, MRP- und APS-Systemen, sowie Planungsmethoden, wie Kanban, BoA, ConWIP und so weiter ein. Eine Beschreibung des Ist-Zustandes vor und des Soll-Zustands nach der Einführung dieses Systems wird dargestellt. Hierbei entwickelt der Autor eine Planungsmethode für das APS-System, um die Fertigung bestmöglich zu steuern. Des Weiteren wird im Zuge dieser Einführung eine organisatorische Anpassung in der Fertigungssteuerung vorgeschlagen. Die Anpassung des Systems "Preactor APS" an die Firma HASEC-Elektronik GmbH, wird näher erläutert und umgesetzt. Diese Bachelorarbeit soll somit eine Orientierungshilfe für mittelständische Unternehmen darstellen, welche selbst solch ein MES einführen wollen.



Hofmann, Tobias Siegfried;
Versuchsplanung für Simulationen : Entwurf und prototypische Implementierung eines Experimentdesigners. - 72 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Arbeit befindet sich in dem Forschungsumfeld des 'Design of Experiments'. Das Ergebnis dieser Arbeit ist das Erstellen eines Prototyps für die Erzeugung von Versuchsplänen für Simulationen. Die Grundlage bilden ausgewählte und beschrieben Methoden dieser Arbeit, in diesem Fall sind es die bekanntesten und jene die, dass sequenzielle Vorgehen einer Simulationsuntersuchung unterstützen und erwartungsgemäß umgesetzt werden konnten. Sie sind in ihrer Funktionalität beschrieben, bewertet und deren Einsatzgebiete herausgearbeitet. Eine daraus resultierende Gegenüberstellung hat eine eindeutige Handhabung für den Prototypen definiert und eine neuartige Kategorisierungstabelle gefüllt. Anhand dieser Kategorisierungstabelle sind die Grundfunktionalitäten des Prototyps aufgestellt und umgesetzt worden. Der Experimentator hat eine Vielzahl von Möglichkeiten, den Prototypen zu nutzen. Das nachträgliche Erweitern des Prototyps ist bei der Entwicklung mitberücksichtigt worden. Eine kurze Benutzeranleitung rundet die Arbeit ab.



Mann, Felix;
Visualisierung hochdimensionaler Daten. - 51 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Diese Arbeit befasst sich mit unterschiedlichen Arten der Visualisierung hochdimensionaler Daten. Zu Beginn fand eine grundlegende Definition der Begrifflichkeiten statt. Dann wurden sechs Visualisierungsarten in drei Abschnitten (Definition, Beispiel und Resümee) nach ihren Eigenschaften und vor allem ihren Vor- und Nachteilen analysiert. Es existieren viele Problematiken, die nicht durch ein einfaches Balken- oder Liniendiagramm dargestellt werden können, unter anderem finden sich solche auch im Alltag wieder, wie z. B. im Wetterbericht. Folglich ist ein Ziel der Arbeit einen möglichst großen Überblick über hochdimensionale Visualisierungsarten geben zu können. Außerdem wird diskutiert inwiefern der Prozess der Visualisierung hochdimensionaler Daten effektiv und effizient durchgeführt werden kann. Um einen fundierten Überblick geben zu können, erfordert es eine intensive Auswertung von Literatur. Deswegen hat der Autor, um diese Ziele zu erreichen, die Arbeit nach einem Literaturreview von Webster und Watson aufgebaut. Die Ergebnisse illustrieren einige wichtige Erkenntnisse über die Verwendung von spezifischen Visualisierungsarten. Zusätzlich wurden Möglichkeiten aufgezeigt, um komplexere Probleme zu lösen, bspw. durch die Verwendung von mehreren Visualisierungsarten die sich gegenseitig ergänzen.



Loibersbeck, Nico;
Erarbeitung und Bewertung eines Umsetzungskonzepts zum Einsatz einer Logistikdrohne in der Montage anhand eines Serienprozesses am Standort Ingolstadt. - 43 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die taktgebundene Materialbereitstellung bei der Serienfertigung eines Automobils muss sich aufgrund der zunehmenden Modellvielfalt und Anzahl von Ausstattungsvarianten kontinuierlich neuen Herausforderungen stellen. Da bestehende Fahrstraßen und Wege zur Anlieferung innerhalb der Montage durch die zunehmende Anzahl von Verkehrsteilnehmern wie Zugmaschinen, Staplern und Fahrerlosen-Transport-Systemen (FTS) ausgelastet sind, könnte die Anlieferung in Zukunft auch aus der Luft durch Transportdrohnen erfolgen. In der vorliegenden Bachelorarbeit wird untersucht, inwieweit der Einsatz von Logistikdrohnen für den Teiletransport industriefähig und anhand eines Serienprozesses in der Montage der Audi AG in Ingolstadt umsetzbar ist. Ziel dieser Arbeit ist es, relevante Anforderungen für den Einsatz der neuen Technologie zu erarbeiten. Außerdem sollen Konzeptvorschläge beschrieben werden, die eine Umsetzung, am Beispiel eines für den Ersteinsatz geeigneten Anwendungsfalls, ermöglichen. Die Fragestellung wird auf der Grundlage der Analyse des aktuellen Standes der Technik, relevanter Anforderungen an den Einsatz neuer Maschinen in der Montage der Audi AG und der rechtlichen Rahmenbedingungen diskutiert. Das Ergebnis zeigt, dass die Industriefähigkeit einer Logistikdrohne zu diesem Zeitpunkt noch nicht ausreichend ist, um einen Serienprozess in der Montage zeitnah zu automatisieren. In Anbetracht der am Markt verfügbaren Technik, ist der Teiletransport grundsätzlich möglich. Aufgrund der begrenzten Erfahrung der Hersteller mit den besonderen Bedingungen des Einsatzgebietes in einer Produktionshalle, ist jedoch zunächst eine praxisnahe Untersuchung und Kooperation mit einem geeigneten Drohnenhersteller erforderlich. Die dabei gewonnenen Erkenntnisse können dazu genutzt werden, eine auf die spezifischen Anforderungen des jeweiligen Anwendungsfalls angepasste Logistikdrohne zu entwickeln, welche die Automatisierung eines Serienprozesses ermöglicht.



http://www.gbv.de/dms/ilmenau/abs/857623591loibe.txt
Vieten, Daniel;
Visual Analytics für Big Data. - 72 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

In Zeiten von Big Data stoßen klassische Methoden der Datenanalyse zunehmend an ihre Grenzen. Visual Analytics ist ein neuartiger, interdisziplinärer Ansatz zur Datenanalyse, der automatische Analysetechniken mit interaktiven Visualisierungen kombiniert. Die neuen Herausforderungen durch Big Data führten in den letzten Jahren zu einer intensiven Forschung zum Einsatz von Visual Analytics für Big Data. Diese Arbeit gibt durch eine Literaturauswertung einen Überblick über den aktuellen Stand der Forschung in den Bereichen, die für den Einsatz von Visual Analytics im Kontext von Big Data von besonderer Bedeutung sind und derzeit im Mittelpunkt der Forschung stehen. Untersucht werden Methoden zur effizienten Visualisierung großer Datenmengen, Methoden zur Erhöhung der Interaktivität von Visual-Analytics-Systemen bei der explorativen Analyse von Big Data sowie Aspekte des Einsatzes von Visual Analytics für Datenströme und unstrukturierte Daten. Die spezifischen Forschungsprobleme in diesen Bereichen sowie die in der Literatur vorgestellten Lösungsansätze werden strukturiert dargestellt und darüber hinaus offene Forschungsfragen identifiziert. Als Ergebnis lässt sich festhalten, dass es bei der Analyse von Big Data mit Visual Analytics bislang viele neuartige Methoden, jedoch kaum etablierte Standards gibt. Der Forschungsbedarf ist deshalb weiterhin hoch.



Hußke, Christian;
Anwendungsmöglichkeiten von Data-Mining-Methoden in Produktionssystemen. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die Analyse der in Produktionssystemen erfassten Daten ist gerade in der heutigen Zeit hoch bemessen. Als Hilfsmittel der Datenanalyse dienen die sogenannten Data-Mining-Methoden. Das Ziel dieser Bachelorarbeit zum Thema "Anwendungsmöglichkeiten von Data-Mining-Methoden in Produktionssystemen" besteht in der Entwicklung eines Überblicks zum Einsatz von Data-Mining-Methoden in produzierenden Unternehmen. Dazu werden 16 Anwendungsbeispiele vorgestellt, in denen der Nutzen dieser Verfahren für Fertigungsunternehmen aufgezeigt wird. Das Qualitätsmanagement weist dabei die meisten Anwendungsfälle des Data-Mining zur Problemlösung auf. So wurden beispielsweise mittels der Verfahren frühzeitig Fehler in Datensätzen identifiziert, um so die Produktion von defekten Erzeugnissen zu verhindern. Ein weiteres Einsatzgebiet stellt die Verbesserung des Produktionsprozesses dar. In diesem Bereich wurde mit Hilfe von Data-Mining-Methoden zum Beispiel ein System zur dynamischen Ablaufplanung erstellt und eine vorteilhafte Kombination von Wärmeöfen zur Herstellung von Stahlbrammen erforscht. Auch im Gebiet der Logistik konnte der Einsatz von Data-Mining-Methoden dem Unternehmen einen Nutzen generieren. So wurden Data-Mining-Methoden verwendet, um aufgrund in der Vergangenheit erfasster Daten den besten Lieferanten für den Transport eines Produktes zu wählen, oder die Lieferroute von defekten Teilen über verschiedene Lieferanten bis zum Einzelhandel zu analysieren. Zusammengefasst lässt sich in allen untersuchten Beispielen der Grund für den Einsatz von Data-Mining-Methoden auf eine Reduktion der Kosten und/oder der Durchlaufzeit zurückführen.



Lewin, Roman;
NoSQL-Datenbanken im BigData Kontext. - 44 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2016

Die vorliegende Bachelorarbeit beschäftigt sich mit der Betrachtung der NoSQL-Datenbanken im Kontext von Big Data. Das schließt ebenfalls die Betrachtung der relationalen Datenbanken als Vergleich ein. Die entsprechende Fachliteratur wird herangezogen um die Frage zu beantworten, ob die NoSQL-Datenbanken sich für Big Data eignen und ob diese sich für den Kontext von Big Data besser eignen als die relationalen. Nach einer Begriffserläuterung werden zunächst die Eigenschaften der relationalen Datenbanken betrachtet und diese in den Kontext von Big Data gesetzt. Danach werden die allgemeinen Eigenschaften der NoSQL-Datenbanken erläutert und anschließend die NoSQL-Datenbanken klassifiziert. Für jede Klasse wird ein Vertreter ausgewählt, erläutert und ebenfalls in den Kontext von Big Data gesetzt. Abgeschlossen wird der theoretische Teil mit einer kritischen Betrachtung von NoSQL-Datenbanken in Relation zu den relationa-len Datenbanken. Im praktischen Teil werden die Eigenschaften von Big Data durch die Implementierung eines Benchmarks und durch Heranziehen externer Benchmarks, sowohl bei einer ausgewählten NoSQL- als auch bei einer relationalen Datenbank getestet. Die Ergebnisse werden miteinander verglichen, wobei eine Aussage über die Eignung von NoSQL-Datenbanken für den Kontext von Big Data getroffen und die Frage beantwor-tet wird, ob die NoSQL-Datenbanken für den Einsatz von Big Data geeigneter sind als die relationalen Datenbanken.



Thimm, Marcel;
Einführung und Untersuchung einer elektronischen Fahrzeug-Aufbaudokumentation im Prototypenbau. - 65 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2015

Ziel dieser Abschlussarbeit ist es, den Zielkonflikt zwischen steigender Produktqualität, kürzeren Entwicklungszeiten und sinkenden Kosten aufzuzeigen und die Einführung einer Dokumentationssoftware als Qualitätssicherungsmaßnahme im Prototypenbau am Beispiel der Porsche AG zu begleiten. Die Software "elektronische Prototypenbegleitkarte" (ePBK) wurde entwickelt, um die Dokumentation des Fahrzeugaufbaus transparenter zu gestalten und langfristig die Qualität gebauter Fahrzeuge zu verbessern. Dazu werden den Nutzern am Prototypenband und in den koordinativen Bereichen verschiedene Software-Funktionalitäten bereitgestellt. Das Programm deckt alle Erfordernisse einer herkömmlichen Dokumentation ab und bietet, durch die Digitalisierung, noch weitere Funktionen, beispielsweise in der Auswertung der erfassten Daten. Die Nützlichkeit der einzelnen Funktionen wurde anhand subjektiver und objektiver Kriterien untersucht und bewertet. Dazu wurde die ePBK mit der herkömmlichen Dokumentation verglichen und auf Basis der DIN EN ISO 9241-110 die Einhaltung der Grundlagen der Dialoggestaltung geprüft. Im Laufe der Untersuchung hat sich die ePBK als wertvolles Tool für die Dokumentation herausgestellt, wobei geforderte Funktionen gut umgesetzt sind. Von den Nutzern wurde auch die Softwareergonomie als gut bewertet. Ausbaupotential hat die elektronische Prototypenbegleitkarte in diversen Dialoggestaltungsthemen und in der Ausarbeitung weiterer Funktionalitäten, wie z.B. die Einbindung weiterer Abteilungen. Mit dem Programm hat die Porsche AG ein bedeutendes Werkzeug zur Verbesserung der Qualität im Prototypenbau geschaffen.



Gold, Benjamin;
Untersuchung von Möglichkeiten zur Unterstützung von Fertigungsplanungsmethoden durch die automatisierte Generierung von Optimierungsmodellen/Diagrammen auf Basis des CMSD Datenformates. - 53 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Um die Fertigung zu optimieren werden in Unternehmen Fertigungsplanungsmethoden genutzt. Um bestmögliche Ergebnisse zu erreichen werden diese mit Hilfe von Optimierungsmodellen angepasst. Die Erstellung dieser ist meist sehr aufwändig und soll daher in Unternehmen automatisiert werden. Diese Arbeit soll einen Überblick über die Möglichkeiten der Unterstützung eben jener automatischen Generierung geben. Diese erfolgt auf Grundlage des CMSD Datenformates. Es werden grundlegende Fertigungsplanungsmethoden vorgestellt und untersucht. Darüber hinaus wird die Tauglichkeit des CMSD Standards für die Übertragung bzw. Abbildung der benötigten Informationen geprüft. Mit Hilfe verschiedener Prototypen wurde die Nutzbarkeit des Formates für die automatische Generierung von Optimierungsmodellen validiert. Dabei hat sich gezeigt, dass alle für die Modelle benötigten Daten mit Hilfe das CMSD Datenformates erfolgreich übermittelt werden könnten. Somit wurde festgestellt, dass sich dieser Standard für die Datenübertragung von Fertigungsplanungsmethoden eignet.



Kokonowski, Kevin;
Entwicklung eines Konzeptes zur Nutzung von Augmented Reality Technologien in der Fertigung. - 58 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2015

Diese Arbeit befasst sich mit dem Thema Augmented Reality. Die Arbeit stellt einen Überblick über Augmented Reality dar und versucht aufzuzeigen wie Augmented Reality sinnvoll in den Fertigungsprozess integriert werden kann. Dabei wird zuerst der Begriff der Augmented Reality definiert, die historische Entwicklung dargestellt und im Anschluss das zugrunde liegende Prinzip dargestellt. Darauf folgt eine Darstellung der verschiedenen Techniken und Verfahren die den Einsatz von Augmented Reality ermöglichen. Dabei werden die einzelnen Möglichkeiten der Datenerfassung, der Datenverarbeitung und der anschließenden Datenausgabe beschrieben. Dabei wird sowohl auf Aspekte die die Software betreffen als auch auf Aspekte eingegangen, welche hardwarespezifisch sind. Ableitend von dieser Übersicht, wird am Anschluss aufgezeigt wie diese in den einzelnen Phasen des Produktlebenszyklus angewandt werden können. Dabei wird gezeigt, wie Augmented Reality in der Entstehung, der Produktion und der nachfolgenden Betreuung, dem Service, integriert werden kann. Zuletzt werden die Ergebnisse der Arbeit zusammengefasst, beurteilt und einen Ausblick auf zukünftige Entwicklungen gegeben.



Kuhn, Melanie;
Big Data im Kontext der Simulation von Produktionssystemen - Einsatzpotentiale zur Eingangs- und Ergebnisdatenverarbeitung. - 44 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2014

Seit mehreren Jahren wachsen die Datenmengen exponentiell an. Laut der neuen Studie "Digital Universe", die durch den IT-Dienstleister EMC und dem Marktforschungsunternehmen IDC jedes Jahr veröffentlicht wird, steigt die weltweite Datenmenge bis 2020 um 44 Zettabytes an [Tu2014]. Die Gründe für das rasante Wachstum sind vielfältig und reichen von der verstärkten mobilen Internetnutzung, über die immer größer werdende Nutzung sozialer Netzwerke bis zur Vernetzung von Geräten, Fahrzeugen und Maschinen. Dieses Phänomen wird unter dem Begriff "Big Data" zusammengefasst. Im Rahmen dieser Bachelorarbeit wird der Begriff "Big Data" ausführlich analysiert. Hierzu wird zunächst eine Definition entwickelt und anschließend werden Kerntechnologien und Werkzeug von "Big Data" betrachtet. Darauf aufbauend soll die Eignung dieser Technologien und Werkzeuge für die Unterstützung von Simulationsstudien überprüft werden. Obwohl in der Literatur keine verlässlichen Quellen gefunden wurden, die eine Aussage darüber treffen, welche Big-Data-Technologien für den Einsatz zur Unterstützung von Simulationsstudien geeignet sind, werden die Werkzeuge zur Datenhaltung sowie zur Visualisierung als geeignet identifiziert.



Blödorn, Daniel;
Bewertung der grafischen Fehlerkodierung im Automobilbau am Beispiel der Elektrofahrzeugmontage im BMW Werk Leipzig. - 81 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Im Rahmen eines Pilotprojekts soll im BMW-Werk Leipzig die grafische Fehlererfassung in allen Montagebereichen der i3-Produktion zum Einsatz kommen. Obwohl grafische Fehlererfassungssysteme bereits seit zehn Jahren in den Finish-Bereichen der Lackiererei und anderen Bereichen in der konventionellen Fertigung im Werk Leipzig erfolgreich eingesetzt werden, ist die Verwendung in der Montage ein Novum. Zunächst wird in dieser Arbeit daher genauer auf die Bedeutung der Fehlererfassung im Fehlerbehebungsprozess in der Automobilindustrie eingegangen. Ausgehend von einer breitflächigen Analyse des Themenkomplexes Prozessautomatisierung und Qualitätsmanagement wird in der Arbeit ein Bewertungssystem entwickelt, das die Evaluierung der Tauglichkeit des Pilotsystems ermöglichen soll. Dabei wird Bezug auf die Besonderheiten der Elektrofahrzeugfertigung genommen und anschließend maßgeschneiderte Bewertungsindikatoren entwickelt. Neben einer detaillierten Schilderung der Projektschritte von der Visualisierung der Fertigungstakte über die Integration des Fehlerstammdatenkatalogs bis hin zum ersten Testlauf werden eine Modellierung der wesentlichen Geschäftsprozesse und eine Schwachstellenanalyse derselben durchgeführt. Im Zuge der anschließenden Nutzwert-Analyse und Kosten-Nutzen-Analyse werden quantifizierbare wie nicht quantifizierbare Nutzen-und Aufwandsfaktoren ausgewertet und in ein Wertesystem überführt. Im Ergebnis wird die Tauglichkeit und Wirtschaftlichkeit des Piloten selbst im Falle ungünstiger Umweltparameter nachgewiesen und den verantwortlichen Organen folglich die Weiterführung und Ausweitung des Pilotversuchs nahegelegt.



Walther, Robert;
Untersuchung der Eignung von aktuellen Webtechnologien zur Implementierung von interaktiven Anwendungen am Beispiel eines Unternehmensplanspiels. - 57 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2014

Die Entwicklung des World Wide Web geht heute mindestens genauso rasant voran wie vor ein paar Jahren. Der ständige Ausbau der Infrastruktur, neue Technologien aber auch eine Vielzahl an Diensten haben die Bedeutung des Internets, als eine reine Sammlung von Informationen, verdrängt. Das Web hat sich aufgrund der immer einfacheren Bedienbarkeit zu einer produktiv nutzbaren Plattform für Jedermann entwickelt. Dieser sozio-technische Wandel wird oft unter dem Begriff Web 2.0 zusammengefasst. Anwender konsumieren nicht mehr nur Inhalte, sondern erstellen und gestalten diese aktiv mit. Mit dieser neuen Evolutionsstufe des World Wide Webs sind eine Reihe neuer Anforderungen an bisherige Webanwendungen entstanden. Dazu zählen interaktive sowie intuitive Bedienelemente, verbesserte Reaktionszeiten (Echtzeitfähigkeit), die Manipulation von Inhalten und eine dynamischere und eindrucksvollerer visuelle Präsentation von Daten. Webanwendungen mit solchen Funktionalitäten bezeichnet man als Rich Internet Applications. Sie ergänzen und ersetzen immer mehr Anwendungen wie wir sie aus dem Desktopeinsatz kennen und erobern neue Einsatzgebiete. Die vorliegende Arbeit beschäftigt sich zunächst mit den Rich Internet Applications zugrundeliegenden Technologien. Es erfolgt eine Aufteilung in client- und serverseitige Technologien. Überblicksartig werden deren Funktionenweisen, aber auch Stärken und Schwächen herausgearbeitet. Im Anschluss werden Vorzüge und Probleme, welche sich beim Einsatz moderner Webanwendungen ergeben thematisiert. Eine abschließende Implementierung soll die gewonnen Erkenntnisse überprüfen und untermauern. Dazu werden verschiedene Funktionalitäten des bereits bestehenden Unternehmensplanspiels LOOP, mit Hilfe von ausgewählten Technologien, prototypisch in eine Rich Internet Application konvertiert.



Sengewald, Thomas;
Augmented Reality in der Produktion - Stand, Trends & Konzepte. - 59 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

Die vorliegende Arbeit leistet einen theoretischen Beitrag zur Visualisierungstechnik Augmented Reality. Im Rahmen der Recherche für diese Bachelorarbeit wurden wissenschaftliche Abhandlungen, aktuelle Artikel aus Fachzeitschriften und verschiedene Quellen aus dem Internet analysiert, zusammengefasst und beschrieben. Damit wird ein Überblick, sowohl zum Begriff Augmented Reality als auch zu den bisherigen technischen Entwicklungen in diesem Bereich geschaffen. Der Fokus der Arbeit liegt dabei auf dem Einsatz im Sektor der industriellen Unternehmungen. Neben dem aktuellen Stand und den zukünftigen Trends der Technologie, geht diese Arbeit weiterhin auf die verschiedenen Techniken zur Realisierung sowie auf konkrete Nutzenpotenziale von Augmented Reality Systemen ein.



Schneider, Christoph;
Einsatzszenario für die Simulation von Produktionsprozessen in mittelständischen Unternehmen. - 53 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2013

In dieser Arbeit sollte ein Einsatzszenario für die Simulation von Produktionsprozessen in mittelständischen Unternehmen durchlaufen werden. Es wurde ein Simulationsmodell mit der Simulationssoftware Anylogic von XJ Technologie erstellt. Im Simulationsmodell wird die Fertigung der Voigt Electronic GmbH aus Erfurt simuliert. Auf die speziellen Anforderungen der Voigt Electronic GmbH wurde dabei besonders geachtet. Das Modell wurde basierend auf einem Netzwerk als Diskret Event Simulation erstellt. Es wurde außerdem ein übersichtliches und einfach zu bedienendes Benutzerinterface erstellt. Damit ist es den Mitarbeitern der Voigt Electronic GmbH möglich, Simulationsläufe der Fertigung durchzuführen. Durch Änderungsmöglichkeiten im Modell können Experimente durchgeführt werden. Es erfolgt eine visuelle Ergebnisausgabe im Benutzerinterface (Abbildung 16) in zwei Balkendiagrammen. Zusätzlich werden die Startdaten und Enddaten der einzelnen Aufträge in Excel-Tabellen ausgegeben. Eine Anbindung an das Warenwirtschaftssystem der Voigt Electronic GmbH war nicht möglich. KMU-typisch sind simulationsrelevante Informationen nicht in digitaler Form vorhanden. Das Modell wird über eine Excel-Tabelle mit Aufträgen versorgt. Die einzelnen Werte der Aufträge wurden während der Bearbeitungszeit in Zusammenarbeit mit dem Fertigungsleiter der Voigt Electronic GmbH ermittelt.



Sachse, Daniel;
Kapazitätsplanung von Schwerpunktressourcen bei einem Einzelfertiger. - 104 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Diese Arbeit beschäftigt sich mit der Softwareunterstützten Feinterminierung von Netzplänen auf Engpassressourcen in der Produktion. Besondere Aufmerksamkeit gilt der Zuhilfenahme von speziellen Softwarelösungen, welche den Funktionsumfang von Basis-ERP-Systemen ergänzen können. Es wird gezeigt wie unterschiedliche Softwarelösungen die Anforderungen zur Lösung eines speziellen Job Shop Planungsproblems gerecht werden und wie die Integration einer solchen Software in eine vorhandene Systemlandschaft umgesetzt werden kann.



Markert, Daniel;
Abstraktion von kurz- und mittelfristigen Planungsprozessen. - 61 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Die Ausgangsfrage dieser Arbeit war, ob eine Abstraktion von kurz- und mittelfristigen Planungsprozessen möglich ist. Dazu sind Planungsprozesse, insbesondere Personalplanungsprozesse, verschiedener Unternehmen untersucht worden. In Kapitel 3 wurden ein Prozessvergleich durchgeführt und allgemeine Anforderungen, Planungsobjekte und Planungsaufgaben definiert. Es wurden allgemeine Anforderungen, welche an einen solchen Prozess gestellt wurden, analysiert. Weiterhin sind planungsrelevante Objekte und Aufgaben der Planungsprozesse definiert und beschrieben worden. Auf diesen Annahmen aufbauend wurde ein Fachkonzept für eine IT-gestützte Personaleinsatzplanung erstellt. In diesem Konzept ist die Funktionalität der zu erstellenden Anwendung definiert und erläutert worden. Im Zusammenhang mit dem Fachkonzept ist ein implementierungsnahes DV-Konzept entstanden, welches die technische Umsetzung des Fachkonzeptes darstellt.



Bumann, Michael;
Einsatz eines elektronischen Leitstandes zur Kapazitätsfeinplanung bei der Herstellung von Präzisionsdrehteilen. - 40 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Sich ständig verändernde Bedingungen am Markt, insbesondere hinsichtlich der Beziehungen und des Verhaltens von Kunden und Lieferanten erfordern eine permanente und flexible Anpassung aller Strukturen und Prozesse im jeweiligen Unternehmen. Solche Einflüsse müssen frühzeitig für ein Unternehmen erkennbar sein, um entsprechende Maßnahmen einleiten zu können und mit den richtigen Mitteln zur richtigen Zeit dagegen steuern zu können. Hierfür stehen eine Reihe technischer und organisatorischer Hilfsmittel bereit, um effektiv und mit effizientem Mitteleinsatz auf diese Situationen reagieren zu können. Elektronische Leitstände stellen eine anerkannte Methode dar, um die Planung von Arbeitsgängen der Produktionsaufträge vorzunehmen. Im Rahmen dieser Bachelorarbeit soll untersucht werden, wie sich die Kapazitätsfeinplanung mit Hilfe eines elektronischen Leitstandes zur optimalen Nutzung der Ressourcen bei der Herstellung von Präzisionsdrehteilen in Hinblick auf Minimierung der Rüstzeiten, Optimierung der Durchlaufzeiten bzw. höchstmögliche Auslastung der Maschinen nutzen lässt. Auf folgende Fragen soll eine Antwort gegeben werden können: Ist der Einsatz eines elektronischen Leitstandes zur Kapazitätsfeinplanung bei der Herstellung von Präzisionsdrehteilen wirtschaftlich sinnvoll und vorteilhaft? Kann der Leitstand auch in den weiteren Abteilungen der Fertigung zur optimalen Nutzung der Ressourcen beitragen?



Kellermann, Sebastian;
Experimentelle Untersuchung der Leistungsfähigkeit des Genetischen Algorithmus in Plant Simulation im Vergleich zu ausgewählten Heuristiken und Prioritätsregeln am Beispiel von Flow Shop Benchmark Problemen. - 49 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Im Rahmen dieser Bachelorarbeit wird die Funktionalität und Leistungsfähigkeit des Genetischen Algorithmus in Plant Simulation untersucht. Dazu wird zunächst ein Überblick über die Grundlagen der Maschinenbelegungsplanung, der simulationsbasierten Optimierung und der Genetischen Algorithmen gegeben. Im praktischen Teil der Arbeit werden verschiedene Simulationsmodelle implementiert, anhand derer die experimentelle Untersuchung durchgeführt wird. Dabei werden der vorhandene Genetische Algorithmus, die Heuristik von Nawaz, Enscore und Ham sowie einfache Prioritätsregeln berücksichtigt und auf bekannte Flow Shop Probleme angewendet und die Ergebnisse ausgewertet.



Hofmann, Eric;
Konzeption und Implementierung eines CMSD-Generators als Webanwendung. - 47 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Core Manufacturing Simulation Data (CMSD) steht für einen Standard zur Beschreibung und zum Austausch der Daten eines Simulationsmodells. Diese Arbeit beschreibt die grundsätzlichen Ziele sowie den Aufbau von CMSD. Weiterhin werden Techniken zur Realisierung von CMSD vorgestellt und die Grundlagen zur benutzerfreundlichen Gestaltung der Anwendung gelegt. Der praktische Teil der Arbeit ist die Implementierung eines Software-Tools, dem über eine Weboberfläche die für ein Simulationsmodell notwendigen Daten übergeben werden können. Das Tool erstellt daraus automatisch ein XML-Dokument, basierend auf dem CMSD-Standard und einem Modellgenerator für Tecnomatix Plant Simulation.



Natterer, Michael;
Direkte Integration von ERP-Systemen und Lagersteuerungen (am Beispiel von SAP ERP und Hänel-Leanlift-Systemen). - 107 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Komplexe Lagerorganisationseinheiten werden häufig durch spezielle Warehouse-Management-Systeme softwaretechnisch verwaltet, um so die individuellen Prozesse darin zu überwachen und zu unterstützen. Durch die Abbildung von anderen Bereichen des Unternehmens in anderen Softwaren, beispielweise ERP-Systemen, stehen viele Unternehmen vor der Aufgabe, beide Komponenten zu pflegen und zu warten. Hierbei treten negative Erscheinungen wie Datenredundanzen, Medien- und Systembrüche auf. Fraglich ist, ob eine Verwaltung von Lagern auch in nicht auf Lagerverwaltung spezialisierten ERP-Systemen sinnvoll umgesetzt werden kann. Im Rahmen dieser Arbeit wurde zunächst ausgehend von einer theoretischen Betrachtung von Lagern und Lagerprozessen eine Liste mit Anforderungen an Softwaresysteme erstellt, die zur Unterstützung von komplexen Lagersystemen notwendig sind. Der Hauptaugenmerk wurde hierbei auf dynamische Lagermittel gelegt, in denen ein automatischer Ware-zur-Person-Transport erfolgt. Im nächsten Schritt wurden exemplarisch die WMS "Hänelsoft" und "Powerpick" und das SAP ERP-System hinsichtlich des angebotenen Funktionsumfanges zur Lagerverwaltung untersucht. Hierbei konnte das nicht derart zu erwartende Ergebnis ermittelt werden, dass das SAP ERP-System im Funktionsumfang kaum Schwächen gegenüber Spezial-WMS aufweist. Lediglich die direkte Ansteuerung von dynamischen Lagermitteln wird nicht zur Verfügung gestellt. Zur Klärung der Frage, wie hoch Aufwände für Customizing und Erweiterung des ERP-Systems sind, wurde innerhalb eines ausführlichen DV-Konzeptes eine Architektur zur Umsetzung eines fiktiven Lagerszenarios mit direkter Ansteuerung von Hänel-Leanlift-Systemen erstellt, dass in einer prototypischen Umsetzung validiert wurde. Der hierbei aufgetretene Aufwand konnte einer überschaubaren Anzahl an Manntagen quantifiziert werden, sodass der Autor zum Schluss kommt, dass eine Verwaltung von Lagersystemen mit dem SAP ERP-System eine sinnvolle Alternative zu Spezial-WMS darstellt für den Fall, dass ein Unternehmen bereits ein ERP-System einsetzt.



Krannich, Carsten;
Einführung einer neuen Fertigungssteuerung für die Gleitlagerproduktion in der Präzisionsmechanik. - 70 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2011

Ziel dieser Bachelorarbeit ist die Entwicklung eines Fertigungssteuerungskonzeptes für die Gleitlagerfertigung und die Bereitstellung eines IT-Werkzeugs zur Unterstützung der operativen Fertigungsplanung und -steuerung in der Präzisionsmechanik bei der Firma Siemens im Werk Rudolstadt.



Engelmann, Maik;
Professionelle Code-Dokumentationswerkzeuge. - 48 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Diese Bachelorarbeit beschäftigt sich mit Werkzeugen zur Quellcodedokumentation. Hierbei werden aktuell gängige Werkzeuge und deren Funktionsweise untersucht und dargestellt. Hauptsächlicher Untersuchungsgegenstand waren Doxygen und NaturalDocs. Der theoretische Teil ist in vier grundlegende Abschnitte aufgegliedert. Zu Beginn wird das Software-Engineering mit seinen verschiedenen Bestandteilen betrachtet. Anschließend wird genauer auf den Softwarelebenszyklus eingegangen. Abschnitt drei betrachtet die Dokumentation an sich. Hierbei werden die Notwendigkeit der Dokumentation sowie die Notwendigkeit der automatischen Dokumentation erläutert. Der vierte Abschnitt befasst sich mit Dokumentationswerkzeugen. Hierbei wird untergliedert in die Funktionsweise eines solchen Dokumentationswerkzeuges sowie möglichen Anforderungen. Weiterhin werden Quellcode-Dokumentationswerkzeuge herausgearbeitet und im Bezug auf SLX kategorisiert. Der praktische Teil fokussiert auf die Anwendung von Dokumentationswerkzeugen im Bezug auf SLX. Eingangs wird die Simulation an sich sowie SLX näher erläutert und dargestellt. Daran schließt sich eine Auflistung der Anforderungen zum betreiben der Werkzeuge an. Den Abschluss des Kapitels bildet die Verwendung von Doxygen und NaturalDocs an zwei Beispielen. Hierbei lag das Augenmerk auf der Anpassungsfähigkeit der Werkzeuge an die SLY-Syntax



Wüstemann, Sascha;
Konzeption der Integration eines Fremdsystems mit SAP ERP zur Bestimmung von Lieferterminen am Beispiel des MITAN 4T ERP. - 111 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Für die Kunden von auftragsorientierten Unternehmen ist neben Preisen und Konditionen, den Lieferbedingungen und der Produktqualität oft der Liefertermin ein entscheidendes Kriterium für den Verkaufsabschluss. Daher sollten diese Unternehmen bestrebt sein, Kundenaufträge termingerecht und zur Zufriedenheit der Kunden abzuwickeln. Bei der Bearbeitung einer Kundenanfrage sollten zur Lieferterminbestimmung und zur Entscheidung über die Annahme oder Ablehnung des Auftrages aktuelle Informationen über Material- und Kapazitätsverfügbarkeit mit einbezogen werden. Das am Markt führende SAP ERP bietet im Standard keine Feinplanungskomponente, sondern nur eine Terminierung ohne Berücksichtigung der Kapazitätsschranken. Eine Ein- und Umplanung von Kapazitätsbedarfen gegen ein begrenztes Kapazitätsangebot ist nur manuell möglich. Somit können kurzfristig keine exakten Aussagen über Liefertermine für Kundenanfragen getroffen werden, wenn der Termin von bereits angenommenen Kundenaufträgen, den geplanten und freigegebenen Fertigungsaufträgen sowie der Kapazitätssituation abhängt. Das für kleine und mittlere Unternehmen konzipierte MITAN 4T ERP hingegen, bietet durch einen speziellen Planungsalgorithmus diese Funktionalität. Im Rahmen einer Literaturrecherche zu den Themengebieten MRP II und Feinplanung werden die für eine möglichst genaue Terminierung eines Kundenauftrages notwendigen Informationen identifiziert. Anschließend wird eine Betrachtung zum Stand der Technik im Hinblick auf Lieferterminbestimmung und Kapazitätsplanung sowohl für das SAP ERP als auch für das MITAN 4T ERP durchgeführt. Somit können nachfolgend die Vorteile der Lieferterminbestimmung des MITAN 4T ERP gegenüber der des SAP® ERP erörtert werden. Anschließend fließen die gewonnenen Erkenntnisse in ein Fachkonzept zur Lieferterminbestimmung in einem Fremdsystem ein. Funktionale und nichtfunktionale Anforderungen sowie der Ablauf einer Lieferterminbestimmung bilden dabei die Schwerpunkte der Betrachtung. Als Fortführung des Fachkonzeptes wird ein implementierungsnahes DV-Konzept erarbeitet, das als Vorlage für ein prototypisches Integrationsszenario dienen wird. Die Arbeit schließt mit einer Zusammenfassung und einer kritischen Würdigung der erzielten Ergebnisse ab. Ein Ausblick auf zukünftige Entwicklungen soll gegeben werden.



Lohmeyer, Ralph;
Automatische Validierung von Simulationsmodellen mittels statistischer Verfahren - an einem konkreten Beispiel. - 48 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die vorliegende Arbeit befasst sich mit dem Thema der automatischen Validierung von Simulationsmodellen mithilfe von statistischen Verfahren. Ziel der Arbeit war es zu untersuchen, inwiefern diese statistischen Verfahren geeignet sind, eine automatische Validierung durchzuführen. Dementsprechend wurde zuerst der V&V Prozess allgemein innerhalb diverser Vorgehensmodelle betrachtet - sowie mögliche Validierungstechniken für eine möglichst glaubwürdige Entscheidung über die Validität eines Modells untersucht. Die statistischen Verfahren sind eine Methode die den größtmöglichen Grad an Objektivität bieten, weswegen sie für einen automatisierten Prozess am besten geeignet sind. Im Hauptteil der Arbeit wurde demnach dann an einem konkreten Beispiel die Eignung statistischer Verfahren für eine automatische Validierung untersucht. Hierzu wurde ein Simulationsmodell (11-Maschinen, Werkstattfertigung) des Fachgebietes WI für Industriebetriebe der TU-Ilmenau benutzt, um Daten zu generieren, welche dann mithilfe von Hypothesentests statistisch ausgewertet wurden. Dieses Modell wurde in Plant-Simulation umgesetzt. Es wurden verschiedene Tests mit unterschiedlichen Parametern auf die Daten angewandt. Hierzu wurde eine eigene Implementierung geschrieben um die Tests auf die Ausgabedaten der Simulation anwenden zu können. Die Ergebnisse der Auswertung, sowie die Erkenntnisse beim Durchführen der statistischen Analyse, wurden dann genutzt, um die allgemeine Eignung statistischer Verfahren für eine automatische Validierung zu untersuchen und ihre Grenzen und Beschränkungen aufzuzeigen. Des Weiteren wurden auch allgemeine Schlussfolgerungen gezogen, was für den Fall einer automatischen Validierung eines Simulationsmodells für Probleme auftreten können und welche Hürden zu überwinden wären.



Schirmacher, Franz;
Implementierung und Test von FlowShop Heuristiken in die Scheduling-Software LEKIN. - 54 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Bachelorarbeit befasst sich mit der Implementierung und Tests folgender Heuristiken zur Lösung von Flowshop Problemen: - Campbell, Dudek, Smith, - Gupta, - Sokolizin, - Petrow, - Palmer, - NEH-Heuristik, - Local Search, - Shifting Bottleneck. Desweiteren wurden oben genannte Algorithmen miteinander und mit in LEKIN bereits implementierten Heuristiken anhand ausgewählter Kriterien verglichen.



Häfer, Mathias;
Implementierung und Test von Scheduling-Verfahren für die Werkstattfertigung in Plant Simulation. - VI, 76 S., S. A - G Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Ziel dieser Arbeit ist es, in erster Linie eine Erweiterung des Simulationswerkzeuges für die Fertigungssimulationen Plant Simulation zu implementieren. In Plant Simulation sind statische Scheduling-Verfahren zur Reihenfolgeplanung vorhanden. Diese Scheduling-Verfahren wurden um dynamische Scheduling-Verfahren erweitert. Dabei wurden verschiedene Simulationsmodelle erstellt und unterschiedlich parametrisiert. Die Anwendung der dynamischen Scheduling-Verfahren wird mit den statischen Scheduling-Verfahren in Plant Simulation unter verschiedenen Zielfunktionen verglichen und analysiert. Zudem wird versucht, eine Aussage über die Anwendbarkeit von dynamischen Scheduling-Verfahren zu treffen. - Die Arbeit ist somit in zwei Teile gegliedert. Als erstes werden Definitionen zur Produktionssteuerung, Simulation und Scheduling-Verfahren gefunden, um so das theoretische Fundament zu legen. Danach folgt eine formale Beschreibung der Simulationsmodelle, um dann die Experimente durchzuführen und deren Ergebnisse zu analysieren.



Lenz, Fabian;
Simulation als BDE Datengenerator am Beispiel einer Werkstattfertigung. - 54 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Ziel der Arbeit ist die Erstellung eines Emulators zur Erzeugung realitätsnaher Eingangsinformationen für ein MES-System am Beispiel einer Werkstattfertigung. Ausgangspunkt der Betrachtungen bildeten Ausführungen über die Entwicklung der betrieblichen Informationsverarbeitung (BDE/MDE) und deren Ergänzung durch MES. Im theoretischen Teil werden diese MES-Systeme begrifflich erläutert und definiert. 3 verschiedene Ansätze (MESA, ISA, VDI) wurden vergleichend betrachtet und zu relevanten Funktionsgruppen zusammengeführt. Im Weiteren wird die vertikale und horizontale Integration der MES in die Informationslandschaft der Unternehmen beschrieben und die Bedeutung von BDE/MDE ergänzend erläutert. Als Basis für den Aufbau des Emulators wird ein Simulationsmodell mittels Plant Simulation erstellt. Nach theoretischen Betrachtungen zur Simulation und Emulation werden deren Einsatzmöglichkeiten in der Fertigungssteuerung dargestellt. In der praktischen Umsetzung wird zunächst ein reales MES-System ausgewertet. Die dadurch gewonnenen praxisnahen Randbedingungen bilden die Grundlage für die darauf aufbauendenden Simulationsmodelle. Die Umsetzung erfolgt in Simulationsexperimenten zur Emulation von minimal, durchschnittlich und maximalen Datenmengen.



Vogel, Christian;
Vorgehensmodell "Digitale Fabrikplanung" am Beispiel eines aufzubauenden Referenzmodells. - 65 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2010

Die Digitale Fabrik ist in den letzten Jahren zur Realität geworden. Immer mehr Firmen nutzen Methoden und Werkzeuge der Digitalen Fabrik oder bereiten sich auf ihren Einsatz vor, wobei die Digitale Fabrik eine Lösung zur Beschleunigung ihrer Produkt- und Produktionsentstehungsprozesse darstellt. Mittlerweile sind eine Vielzahl dieser Methoden und Werkzeuge existent, es mangelt jedoch an Modellen, die den gezielten Einsatz und vor allem die Möglichkeiten der Zusammenarbeit und des Datenaustausches zwischen den eingesetzten Werkzeugen beschreiben. Die vorliegende Arbeit beschäftigt sich deshalb mit einer Zuordnung der Methoden und Werkzeugen in den verschiedenen Fabrikplanungsphasen und ihren speziellen Einsatzgebieten. Das entwickelte Referenzmodell soll anhand eines praktischen Beispiels zeigen, wie Werkzeuge in der Realität genutzt werden und wie ein möglicher Datenaustausch zwischen ihnen aussehen könnte. Bei den verwendeten Werkzeugen handelt es sich um die Siemens PLM Software GmbH Produkte Process Designer, AMG-Baustein (ein Process Designer Interface) und Plant Simulation.



Bambl, Stefan;
Aufbau eines Beispielszenarios zur Offline-Programmierung von Fertigungsrobotern mittels Werkzeugen der Digitalen Fabrik, am Beispiel von Process Simulate und eines Fanuc Roboters. - 50 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Da die Simulation einen wesentlichen Bestandteil der Digitalen Fabrik darstellt und in der heutigen Industrie der Industrieroboter für ständig wiederkehrende und gefährliche Aufgaben kaum noch wegzudenken ist, beschäftigt sich diese Arbeit im Wesentlichen mit der Simulation und Offline-Programmierung von Industrierobotern. Es wird ein Beispielszenario über die Komponenten und Schritte innerhalb von Process Simulate erstellt, um den an der TU-Ilmenau vorhandenen Fanuc® Roboter Mate 200iB simulieren und offline programmieren zu können. - Die vorliegende Arbeit gliedert sich in fünf Kapitel. Im Anschluss an die Einleitung (Kapitel 1), in der der thematische Fokus und die Motivation beschrieben werden, werden im zweiten Kapitel der Stand der Technik und die Grundlagen hinsichtlich der Digitalen Fabrik erörtert. Darin werden im Abschnitt 2.1 zuerst die Definition und Begriffserklärung herausgearbeitet bevor im Abschnitt 2.2 die Digitale Fabrik hinsichtlich Anwendungsgebiete, Ziele, Methoden und Werkzeuge weiter charakterisiert wird. Im abschließenden Abschnitt 2.3 wird speziell die Simulation als Werkzeug der Digitalen Fabrik näher beleuchtet. Das dritte Kapitel befasst sich mit dem Stand der Technik und den Grundlagen der Robotik und gliedert sich in fünf Abschnitte. Im Abschnitt 3.1 wird die Robotertechnik definiert und klassifiziert. Der Abschnitt 3.2 erschließt zunächst die Hardwarekomponenten von Industrierobotern bevor die Online- und Offline-Programmierung (Abschnitt 3.3) und Roboterprogrammiersprachen (Abschnitt 3.4) näher beschrieben werden. Im Abschnitt 3.5 wird abschließend das Werkzeug der Robotersimulation genauer definiert. Im vierten Kapitel als praktischer Teil werden zuerst das reale Robotersystem (Abschnitt 4.1) und die verwendete PLM-Software (Abschnitt 4.2) beschrieben. Im Abschnitt 4.3 werden der Anwendungsablauf und die im Anwendungsfallbeispiel gesammelte Erfahrungen gezeigt. Im Schlusskapitel fünf wird schließlich die Arbeit zusammengefasst sowie ein Ausblick für weiterführende Tätigkeiten gegeben.



Dietzel, Michael;
Untersuchung des Anwendungsspektrums simulationsbasierter Optimierung. - 39 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Die simulationsbasierte Optimierung bietet heute zahlreiche Möglichkeiten, um komplexe praxisrelevante Aufgabenstellungen zu lösen. Diese Bachelorarbeit widmet sich der simulationsbasierten Optimierung. Es wird zunächst ein Überblick über Grundlagen zu Simulation, Optimierung und ihrer sinnvollen Kopplung gegeben. Dann werden traditionelle Optimierungsverfahren vorgestellt und insbesondere eindimensionale Suchstrategien und Hill-Climbing-Methoden betont. Metaheuristische Verfahren, die sich als äußerst mächtig erwiesen haben, sind weiterer Schwerpunkt der Arbeit. Die in der Arbeit behandelten Metaheuristiken lauten "Evolutionäre Algorithmen", "Tabu Search", "Simulated Annealing", "Ameisenalgorithmen" und "Künstliche Neuronale Netze". Praktische Anwendungsbeispiele und Entwicklungstendenzen im Zusammenhang mit der simulationsgestützten Optimierung erweitern die Arbeit. Am Ende werden die Möglichkeiten von simulationsbasierter Optimierung bewertet und das Anwendungsspektrum verdeutlicht. Hierfür wird versucht, die ermittelten Konzepte möglichen praktischen Problemen und Aufgabenstellungen zuzuordnen.



Rüger, Carsten;
Entwicklung eines Konzeptes für eine zeitnahe, auftragsbezogene Erfassung der Produktionsdaten von Handarbeitsplätzen im Bereich Qualitätssicherung/Endkontrolle mithilfe eines Manufacturing Execution System. - 105 S. Ilmenau : Techn. Univ., Bachelor-Arbeit, 2009

Diese Bachelorarbeit befasst sich mit der Konzeptentwicklung zur Einführung des MES Systems "HYDRA" der MPDV Microlab GmbH und ist bezogen auf die Abteilung Qualitätssicherung/Kontrolle der DIEHL Metall Stiftung & CO. KG Unternehmenseinheit Schmiedetechnik. Während der Arbeit wird zunächst auf die theoretischen Grundlagen der MES und ERP Systeme eingegangen. Nach einer Beschreibung des momentanen Ist-Zustands im Unternehmen wird ein Konzept zur Einführung dieses HYDRA Systems entwickelt und in einem Testsystem auf Funktionsfähigkeit überprüft. Das Hauptaugenmerk liegt dabei auf der zeitnahen Betriebsdatenerfassung während der Produktion, wobei die einzustellenden Systemparameter sowie die Auswahl der geeigneten Hardware betrachtet werden. Diese Arbeit ist als Handlungsanweisung für die DIEHL Metall Stiftung & CO. KG Unternehmenseinheit Schmiedetechnik zur Einführung des im Unternehmen vorhandenen HYDRA Systems in der Abteilung Qualitätssicherung/Kontrolle zu sehen.