Bachelor Theses

Results: 47
Created on: Sun, 26 Jun 2022 13:56:34 +0200 in 0.0747 sec


Alpermann, Maximilian;
Untersuchung von Beschleunigungssensoren als Datenquelle für Predictive Maintenance anhand eines Ventils in der Halbleiterindustrie. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

In dieser Arbeit wurde untersucht, ob ein Predictive-Maintenance-System auf Basis von Beschleunigungsdaten funktionieren kann, als Beispiel wurde dafür ein Ventil aus der Halbleiterindustrie genutzt. In vorherigen Studien wurde gezeigt, dass sich das Remaining Useful Life von Kugellagern vorhersagen lässt, in dieser Arbeit wird untersucht, ob dies auch bei Ventilen mit Kugel-Linearführungen möglich ist. Dafür wurde aus den Beschleunigungsdaten ein Health Indicator erstellt und der Verlauf dieses wurde mit einem ARIMA-Modell vorhergesagt. Aus dem vorhergesagten Verlauf ließ sich mit einem Schadensschwellwert eine Vorhersage für das Remaining Useful Life machen. Es wurde gezeigt, dass ein Predictive-Maintenance-System auf Basis von Beschleunigungsdaten funktionieren kann. Durch steigende Kosten von Halbleitproduktionsprozessen und steigende Anforderungen an die Zuverlässigkeit von Ventilen in der Halbleiterindustrie werden Predictive-Maintenance-Systeme in Zukunft in dieser Anwendung an Bedeutung gewinnen.



Kunnari, Aatu Juhani;
State of the Art - Steuerung von Produktionssystemen. - Ilmenau. - 69 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

In dieser Arbeit wird es eine Literaturübersicht auf dem Gebiet der Produktionssteuerung geben. Die Forschung auf dem Gebiet der Produktionssteuerung ist vielseitig. Auf vielen Teilgebieten der Forschung gab es in den vergangenen Jahren große Entwicklungen. So wurden sowohl im Bereich der Produktionsplanung, der Fabrikplanung und der Fabriksteuerung als auch auf technischen Forschungsgebieten viele Sachverhalte erforscht. Um einen Überblick über die aktuellen Trends auf diesem weit gefächerten Gebieten zu ermöglichen, fasst diese Arbeit Literatur zusammen. Dabei werden die wichtigsten Bereiche der Produktion abgedeckt: Planung, Steuerung und Technologien. Es werden beispielsweise Heuristiken in der Planung, zentrale und dezentrale Steuerungssysteme und Cloud/Fog/Edge Computing genauer betrachtet. Mittels dieser Arbeit können dominante Strömungen in den einzelnen Bereichen und einige weniger aussichtsreiche Richtungen erkannt werden. Zusätzlich zu den aktuellen Trends werden ebenfalls Vorhersagen getroffen, wie in den unterschiedlichen Gebieten in der Zukunft weiter geforscht werden wird. Auch eine zusammenfassende Vorhersage über einen kombinierten Trend, in dessen Richtung die Forschung sich in der Zukunft womöglich richten wird, wird getroffen.



Skorykh, Oleksandra;
Metalearning zur Automatisierung von Machine Learning. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2021

Die vorliegende Arbeit befasst sich mit Metalearning als eine der Methoden des automatisierten Machine Learning. Die Hauptaufgabe des Metalearning ist es, Wissen aus vorherigen Erfahrungen zu generieren und es auf neue Aufgaben anzuwenden. Dabei werden die Machine Learning Modelle nicht von Grund auf neu entwickelt, sondern auf Basis Daten aus vorherigen Lernerfahrungen Außerdem wird das Metalearning unterstützend für die Empfehlung von Algorithmen, Parametern oder Konfigurationen eingesetzt. Im Rahmen der Arbeit wurde eine umfassende State-of-the-Art Review durchgeführt und aufbereitet. Dazu wurden die Prozessschritte einer Machine Learning Pipeline analysiert und die Teilbereiche mit dem größten Automatisierungspotenzial in Bezug auf die Verwendungsmöglichkeit des Metalearning identifiziert. Des Weiteren wurde Metalearning genauer definiert und die Funktionsweise eines Metalearning-Systems beleuchtet. Hierfür wurden zwei Ausprägungen eines Metalearning-Systems geschildert und ausführlich aus der Perspektive des Wissenserwerbs und der Empfehlung der angeforderten Artefakten bei den neuen Lernaufgaben erklärt. Weiterhin wurden drei zentrale Recherchen der Kategorisierung von Metalearning Methoden und Techniken analysiert, die sich in ihrem Vorgehen unterscheiden. Der erste Ansatz, die Methoden des Metalearning zu unterteilen, basiert auf der Referenzarchitektur eines Empfehlungssystems. Der zweite Ansatz beruht auf der Kategorisierung nach Quellen der Metadaten und erweitert somit die erste Unterteilung. Die dritte Kategorisierung stützt sich auf Arten der Metalearning-Algorithmen, die mithilfe von neuronalen Netzen zum Einsatz kommen. Des Weiteren wurde ein Metalearning-System für die Empfehlung der Algorithmen in Betracht gezogen und analysiert. Dabei besteht das Empfehlungssystem aus einer Datenbank mit Metadaten, die aus den vorherigen Lernerfahrungen aufbereitet wurden und einem Metalearning-Algorithmus, der die Metadaten zu neuen Datensätzen mappt. Das Empfehlungssystems kann auf weitere Anwendungsfälle wie die Auswahl und das Ranking von Hyperparamatern oder neuronaler Architektur angewendet werden. Neben dem Empfehlungscharakter kann das Metalearning auch für die Wissensübertragung im Bereich Transfer Learning sowie Few-Shot Learning zum Einsatz kommen. Abschließend wurde eine Zusammenfassung der analysierten Einordnung erstellt und im Zusammenhang mit der automatisierten Algorithmen- und Hyperparameterauswahl aufbereitet. Darauf aufbauend wurde ein Forschungsbedarf abgeleitet.



State of the Art : Simulation von Komplexen Netzwerken. - Ilmenau. - 59 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Das Ziel dieser Arbeit war die Betrachtung des State of the Art der Simulation von Komplexen Netzwerken. Es wurden die Komplexen Netzwerke herausgefiltert, zu denen aktuell die meiste Forschung im Bereich der Simulationen betrieben wird. Sensornetze, Stromnetze, Mobilfunknetze und Verkehrsnetze haben sich nach vorher festgelegten Auswahlparametern für eine Analyse im Rahmen dieser Bachelorarbeit qualifiziert. Im Rahmen der Auswertung wurden die komplexen Netzwerke sowohl bezüglich themenspezifischer Aspekte als auch des Gesamtprozesses der Vorbereitung, Modellierung und Auswertung der Simulationen betrachtet. Inhaltliche Schwerpunkte der Forschung innerhalb der Netzwerke wurden aufgezeigt. In Bezug auf die Sensornetze spielt der Energieverbrauch aufgrund der begrenzten Energiespeicherkapazitäten der Sensoren eine wichtige Rolle. Bei den Stromnetzen bilden die dezentrale Stromeinspeisung und die damit verbundenen Spannungsschwankungen und die Speicherproblematik die zentralen Forschungsfragen. Bei Mobilfunknetzen werden besonders die LTE- und 5G-Technologien betrachtet. Im Bereich der Verkehrsnetze wird sich verstärkt auf Fahrzeug-Ad-Hoc-Netze konzentriert. Zudem wurden Themen identifiziert, die die Grundlage weiterführender Forschung sein könnten. Bezüglich der Simulationstechniken wurden die Diskrete Simulation, die Agentenbasierte Simulation und System Dynamics unterschieden. Es hat sich herausgestellt, dass ein sehr starker Fokus auf die Diskrete Simulation gelegt wird, jedoch hängt die Auswahl der Simulationstechnik immer auch von den betrachteten Simulationsparametern, besonders aber von der Art des Netzwerks, ab.



Binder, Daniel Andreas;
Evaluierung von Varianten der Anbindung von speicherprogrammierbaren Steuerungen an das Robot Operating System. - Ilmenau. - 46 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Innerhalb der HENKEL + ROTH GmbH wird ein mobiler Roboter mit variablen Handhabungseinrichtungen entwickelt. Die hauptsächlichen Steuerungseinrichtungen dieses cyberphysischen Systems (CPS) sind eine speicherprogrammierbare Steuerung (SPS) und das Robot Operating System (ROS). Zum Austausch von Informationen wird in diesem CPS eine vom Unternehmen entwickelte Schnittstelle basierend auf dem Modbus-Protokoll verwendet. Das Ziel der vorliegenden Bachelorarbeit ist es, unter Verwendung der Open Platform Communications Unified Architecture (OPC UA), eine alternative Schnittstelle zwischen diesen Steuerungen zu entwickeln. Dazu werden der mobile Roboter und die bestehende Modbus-Schnittstelle analysiert. Anschließend wird auf Basis der Analyseergebnisse ein OPC UA-Informationsmodell aufgestellt und in einem Testaufbau implementiert sowie evaluiert. Die Implementation und Evaluation zeigen Rahmenbedingungen auf, die für diese Schnittstelle zwischen ROS und SPS gegeben sein müssen. Weiterhin zeigt diese Arbeit, dass die entwickelte OPC UA-basierende Schnittstelle zwischen ROS und SPS funktionsfähig ist, aber unter den gegebenen Rahmenbedingungen kaum Vorteile gegenüber der Modbus-Schnittstelle bietet.



Berthold, Pia;
Potenziale einer durchgängigen digitalen Planung und Analyse von Wertströmen. - Ilmenau. - 42 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Zur Umsetzung der Digitalen Fabrik werden in Unternehmen unterschiedlichste Hilfsmittel eingesetzt. Im Bereich der Fertigungsplanung sind dies zum Beispiel IT Werkzeuge, welche die Layoutplanung ermöglichen, den Wertstrom darstellen, die Arbeitsorganisation auslegen, das Kanbansystem dimensionieren und die Kombination der Wertströme und Nivellierung einer Fertigung simulieren. All diese IT - Werkzeuge sollen die digitale Planung und Analyse von Wertströmen unterstützen. Viele dieser Werkzeuge benötigen zur Anwendung eine Anzahl an Informationen, wie beispielsweise Stückzahlen und Sachnummern. Aktuell werden die benannten Werkzeuge angewendet und verursachen dabei häufig Fehlergebnisse, Fehlentscheidungen, Kosten, generieren Verschwendung und bewirken, dass viele Arbeitsschritte mehrfach ausgeführt werden. Das Hauptaugenmerkt dieser Arbeit liegt auf diesen 5 betrachteten Werkzeugen und deren Informationsflüsse. Diese Fehler wurden anhand eines Praxis Beispiels bestätigt, denn oftmals ist es so, dass dieselben Informationen (wie Sachnummern und Stückzahlen) zur Durchführung der Werkzeuge benötigt werden. Um diese Fehler und Verschwendungen zu beheben wurde ein Soll Konzept entwickelt, welches alle Informationsflüsse der Werkzeuge aufzeigt und dadurch ein durchgängiges digitales Planen und Analysieren von Wertströmen mit garantiert. Das aufgestellte Soll - Konzept umfasst eine zentrale Datenbank, welche die relevanten Input und Output Informationen der Werkzeuge enthält. Zusammengefasst wurden hier die Informationsflüsse einer Ist Situation herausgearbeitet, und mit Hilfe dieser ein Soll Konzept entwickelt.



Muhra, Michael;
Konzeption und prototypische Implementierung eines Visual-Analytics-Systems zur Verringerung der Ausbringungsverluste eines Fließproduktionssystems. - Ilmenau. - 57 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In der moderneren Fertigung werden durch die Digitalisierung und im Zuge von Industrie 4.0 stetig mehr Daten generiert. Diese großen und komplexen Datenmengen lassen sich nicht mehr mit Standardanwendungen analysieren. Das Ziel dieser Arbeit bestand darin, mit Hilfe eines Visual-Analytics-Systems die technischen Betriebsdaten eines seriellen Fließproduktionssystems zu analysieren, um Ausbringungsverluste sowie deren Ursachen zu identifizieren und dabei zu unterstützen diese zu reduzieren. Es wurde ein Konzept für ein Visual-Analytics-System erarbeitet, welches erfolgreich an einer Produktionslinie in einem Produktionsbetrieb prototypisch implementiert und evaluiert wurde. Das Visual-Analytics-System wurde als webbasiertes System implementiert, mit der Möglichkeit weitere Produktionslinien zu integrieren. Mit dem neuen entwickelten Visual-Analytics-System konnten neue Erkenntnisse erlangt werden, die zur Verringerung der Ausbringungsverluste des Fließproduktionssystems beitragen. Das Visual-Analytics-System ist erweiterbar und weist noch ein großes Potential für weitere Entwicklungen auf.



Entwicklung eines Auswahlprozesses zur Bestimmung des geeigneten Materialversorgungskonzeptes für mehrstufige Fertigungssysteme - eine beispielhafte Betrachtung des Produktionswertstroms Heißfilmluftmassenmesser. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Produktionsunternehmen sind heutzutage ständigem Wettbewerbs- und Kostendruck ausgesetzt. Die geeignete Gestaltung von produktionslogistischen Vorgängen und Systemen, die der Realisierung von verschwendungsfreien Abläufen dient, rückt aus diesem Grund immer mehr in den Vordergrund. Ein wichtiger Bestandteil der Produktionslogistik ist die innerbetriebliche Materialbereitstellung. Sie ist für die Anstellung der Materialien am Arbeitssystem zuständig. Um Störungen zu vermeiden, ist eine Anstellung der richtigen Menge zum Zeitpunkt des Bedarfs in der Fertigung notwendig. Verzögerungen, die beispielsweise durch fehlendes Material entstehen, können sich bei mehrstufigen Produktionen auf die nachgelagerten Produktionsstufen auswirken. Die Planung der Materialversorgungsvorgänge ist oft mit hohem Aufwand verbunden. Hinzukommend ist ein erneutes Vorgehen der Planung notwendig, wenn Produkte wechseln, variieren oder neugestaltet werden. Ein einheitlich definiertes Verfahren zur Planung und Steuerung der internen Materialflüsse von der Bereitstellungsquelle zur Produktion fehlt. Aus diesem Anlass wird in der vorliegenden Arbeit eine Methodik zur Wahl der geeigneten Materialbereitstellungsstrategie entwickelt. Diese Methodik verdeutlicht die Vorgehensweise zur standardisierten Planung mit Hilfe der Identifikation und Interpretation von entscheidenden logistischen Faktoren, Materialeigenschaften und weiteren Merkmalen. Jedem Material wird dabei eine Strategie zugeordnet. Die Kombination der Strategien bildet schlussendlich die Basis für das Konzept, das richtungsweisend für die Implementierung der Bereitstellungsmethoden im Unternehmen ist. Die Anwendung des Auswahlprozesses ermöglicht einheitliche Planungsergebnisse und ist gleichermaßen vor dem Produktionsstart als auch nach dem Start durchführbar.



Schleizer, Fabian;
Bayessche Netze zur Auswertung von Data-Farming-Experimenten. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Data Farming bezeichnet ein echtes, zeitdynamisches Simulationsmodell, welches eine große Mengen an Ergebnisdaten erzeugt. Um neues Wissen in den gewonnenen Datenmengen zu entdecken, wird der Datensatz mit einem Data-Mining-Algorithmus untersucht. Eine Data-Mining-Methode ist das Bayessche Netz. In dieser Arbeit wurde eine prototypische Data-Farming-Studie durchgeführt und der entstandene Datensatz mit einem Bayesschen Netz analysiert. Dabei wurde zuerst auf die Grundlagen der Simulation, des Data Farming und der Bayesschen Netze eingegangen. Im nächsten Schritt konnte ein Konzept für die prototypische Implementierung aufgestellt und im Anschluss durchgeführt werden. Um die Leistungsfähigkeit der Bayesschen Netze im Kontext des Data Farmings zu untersuchen, wurde ein deterministisches Simulationsmodell erstellt und zur Datenerzeugung verwendet. Auf Grundlage der erstellten Daten konnte einerseits ein Bayessches Netz automatisch mit einem Algorithmus und andererseits manuell vom Autoren erstellt werden. Durch den Vergleich der beiden Graphen und durch angewandte Inferenz konnte neues Wissen entdeckt werden. Die vom Bayesschen Netz getroffenen Vorhersagen konnten mit einer Korrektheit von 94 % beweisen, welche Zuverlässigkeit und welches Potenzial in den Methoden der Bayesschen Netze stecken. Zur Überprüfung der Robustheit eines Bayesschen Netzes gegenüber den Einflüssen einer Data-Farming-Studie wurde das Simulationsmodell nach und nach abgeändert. Hierbei wurden stochastische Einflüsse mit zufälligen Maschinenstörungen aufgenommen oder unterschiedliche Experimentdesigns verwendet. Gegenüber dem deterministischen Simulationsmodell hat das Modell mit stochastischen Einflüssen nur eine minimale Verschlechterung der Vorhersagegenauigkeit verzeichnen müssen. Anders sah das Ergebnis im Vergleich zu den Experimentdesigns aus: Die Genauigkeit reduzierte sich um 20 % und mehr. Im Anschluss wurden Überlegungen angestellt, wie die Analyseergebnisse einem Anwender präsentiert werden können. Neben einer Graphendarstellung und der Verwendung von Balkendiagrammen und Histogrammen wurde eine bessere Darstellung und Zusammenfassung der Inferenzergebnisse vorgeschlagen. In dieser Arbeit konnte die Arbeitsweise und Leistungsfähigkeit der Bayesschen Netze in Verbindung mit einer Data-Farming-Studie aufgezeigt und Verbesserungsvorschläge gemacht werden.



Dontsov, Artem;
Frequency Domain Experimente für die Simulation von Produktions- und Logistiksystemen - State of the Art und prototypische Implementierung. - Ilmenau. - 91 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2018

Die Untersuchung aller Faktorkombinationen komplexer Systeme ist oft zeit- und ressourcenaufwändig. Schruben und Cogliano schlugen 1981 die Vorgehensweise der Frequency Domain Methode vor, die ermöglicht, viele Faktoren in wenigen Durchläufen zu überprüfen, indem die Faktoren während des Experiments sinusförmig oszilliert werden. Die daraus entstehende Output-Zeitreihe wird mittels Fourier Analyse untersucht, um somit relevante Faktoren anhand ihrer Frequenz zu identifizieren. Ziel dieser Arbeit ist, die Grundlagen für die Frequency Domain Methode herauszuarbeiten, sowie diese prototypisch auf simple Modellen anzuwenden. Um ein grundlegendes Verständnis zu schaffen, wurde online und offline Literatur zu diesem Thema recherchiert. Mittels Tecnomatix Plant Simulation 14 wurden einfache Modelle erstellt und die Anwendung dieser Methode simuliert. Die Auswertung der Daten erfolgte mit einem Matlab-Skript, das sowohl eine graphische Analyse als auch eine statistische Analyse mittels Signifikanzleveln ermöglicht. Die Ergebnisse der Arbeit lassen darauf schließen, dass es möglich ist, die Frequency Domain Methode auf simple Modelle von Produktions- und Logistiksystemen anzuwenden. Die Verwendung für Modelle realer Systeme oder eine Methode zur Bestimmung der optimalen Amplitude von Input-Faktoren sind allerdings nicht ausreichend untersucht und können in weiteren Forschungsarbeiten entwickelt werden.