Studienabschlussarbeiten

Anzahl der Treffer: 717
Erstellt: Sat, 04 May 2024 23:11:06 +0200 in 0.0977 sec


Bieberle, Benedikt;
Untersuchung ausgewählter Bildmerkmale und Ähnlichkeitsmaße für den Einsatz in der Stereoskopie. - Ilmenau. - 80 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

In den letzten Jahren ist eine immer weiter steigende Relevanz von stereoskopischer Bildverarbeitung in verschiedensten Gebieten zu verzeichnen. Dazu zählen etwa Medizin, Industrie und autonomes Fahren. Stereo-Algorithmen für die unterschiedlichen Anwendungen zu evaluieren und diese zu optimieren, stellt dabei eine Herausforderung dar. In dieser Arbeit werden die Eigenschaften unterschiedlicher Ähnlichkeitsmaße und Bildmerkmale betrachtet. Eine Evaluation der Ähnlichkeitsmaße findet innerhalb des viel genutzten Stereo-Algorithmus Semi-Global Block Matching statt. Zur Vereinfachung des Testablaufs wird eine Python-Bibliothek entwickelt, die eine automatisierte Berechnung und Evaluation von Disparitätsbildern ermöglicht. Die Berechnung erfolgt unter der Einbeziehung von definierten Laufvariablen gemäß der Parameter des Algorithmus. So ist eine gezielte Evaluation der einzelnen Parameter möglich. Die quantitative Analyse erfolgt durch vorgestellte Qualitätsmetriken. Zusätzlich können die erfassten Daten visualisiert werden.



Konstruktion für H2L-Baukasten. - Ilmenau. - 56 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Abwasser ist das Ergebnis der Nutzung von Wasser durch den Menschen. Da die Nachfrage nach Wasser weltweit wächst, steigen auch die Menge und die Schadstoffbelastung des Abwassers. Das Abwasserproblem ist Teil der gesamten Umweltproblematik und damit ein Ausdruck der Beziehung des Menschen zu seinem Lebensraum. In der industriellen und kommunalen Aufbereitung von Wasser spielen Membransysteme eine sehr wichtige Rolle. Verschiedene Unternehmen haben sich auf die Entwicklung und die Produktion von Membranfiltrationssystemen sowie ganzer Anlagen zur Wasserbehandlung spezialisiert. Eines dieser Membranfiltrationssysteme ist das H4L: ein flächiges, getauchtes Membransystem mit verklebten, laminierten Membrantaschen. Ein Membranmodul besteht aus mindesten einem Membranblock und einem Gestell. Zur Gestelle dieser Membransysteme wurde in dieser Arbeit ein Baukasten konstruiert. Die Hauptaufgaben des Gestells sind die Membranmodule zu tragen und das Belüftungssystem unterzubringen. Die Anforderungen an die Konstruktion wurden aus Erfahrungen von Vorgängerversion im Lastenheft zusammengefasst. Besonders wichtig war die Anforderung unterschiedliche Formate und Ausführungen der Membranblöcke zu berücksichtigen. Der traditionelle Aufbau der Gestelle ist ein Schweißkonstruktion. Dies Fertigungsmethode ist nicht mit der Hauptanforderungen geeignet. Deshalb werden Konzepte (technisches Prinzip) des Baukastens entwickelt und bewertet. Eines dieser Konzepte wird bis zum Entwurf weiterentwickelt. Das Ergebnis der Arbeit ist die technische Dokumentation in Form eines technischen Entwurfs mit vollständigem Zeichnungssatz, Stückliste sowie einer Bedienungsanleitung und einem Ausblick auf zu erwartende Produktionszeiten. Den Abschluss der Arbeit bildet die Konstruktion des modularen Membransystems. Stichworte: Membransystem, Gestelle, Innovatives Membransystem H4L, Schweißkonstruktion



Liu, Fubin;
Evaluation eines Weißlichtinterferometrie-Algorithmus für die parallele eingebettete Verarbeitung. - Ilmenau. - 62 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Weißlichtinterferometrie ist eine hochauflösende optische Messmethode. Sie verwendet den Interferenzeffekt des Weißlichtes und stellt für dreidimensionale Messung der Mikrostrukturen zur Verfügung. Diese Arbeit beschäftigt sich mit der Implementierung eines parallelen Algorithmus auf einen Einplatinenrechner zur Oberflächenrekonstruktion. Durch Implementierung einer angepassten Synchronisation der Prozesse wird ein geeignetes paralleles Python-Programm entwickelt. Dafür sind die Komprimierung der Rohdaten und die Auswahl geeigneter Datentypen als Vor-verarbeitung durchzuführen. Mithilfe einer Simulation kann das Messsignal simuliert werden. Dadurch kann die Genauigkeit des Algorithmus evaluiert werden. Zum Schluss wird die Oberfläche in übersichtlicher Form rekonstruiert und die Laufzeit des parallelen Programms ausgewertet.



Automatisierung in der Intralogistik : Ausarbeitung eines Konzepts zur Planung, Implementierung und Stabilisierung von Logistikprojekten bei der BMW Group am Beispiel des Schiller Routenzugs. - Ilmenau. - 131 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Ziel der Arbeit ist der Entwurf eines grundsätzlichen Konzepts zur Umsetzung von innerbetrieblichen Logistikprojekten bei der BMW Group. Es geht vor allem um Projekte, die sich mit dem automatischen und gegebenenfalls dem autonomen Transport von Produkten befassen. Neben der Planung werden auch die Realisierung und die Stabilisierung des Projekts beleuchtet. Dabei werden wissenschaftliche Theorien mit praktischen Ansätzen verknüpft. Lösungsansätze zur Fehlervermeidung werden aufgezeigt und die Problematik der Schnittstellenkoordination wird thematisiert. Im Vordergrund steht außerdem die Prozessorientierung, also die Abkehr vom Abteilungsdenken hin zur abteilungsübergreifenden Zusammenarbeit im Projekt. Das ausgearbeitete Konzept soll letztendlich helfen, zukünftige Projekte einfacher durchzuführen und zu dokumentieren. Zur erfolgreichen Umsetzung der Zielstellung werden die theoretischen Grundlagen im Bereich der Intralogistik, des Lean und Change Managements und des Projektmanagements geschaffen. Begrifflichkeiten werden abgegrenzt und Herausforderungen beschrieben. Modelle aus der Literatur werden nach ihrer Relevanz für die Praxis und vor allem für diese Arbeit eingeordnet und die Komplexität der Schnittstellenkoordination und die damit verbundenen Schwierigkeiten werden beleuchtet. Im Rahmen einer Untersuchung werden die BMW Group, ihre strategischen Rahmenbedingungen und das Zielbild in Hinblick auf die Vereinbarkeit mit innovativen Intralogistikprojekten betrachtet. Mithilfe einer anschließenden Ist-Analyse wird der aktuelle Umgang mit Projekten und Neueinführungen bei der BMW Group dargestellt. Unterschiedliche Modelle werden angeführt und mit denen aus der Literatur verglichen, um daraus Potentiale und Lösungswege abzuleiten und eine neues Konzept zu formen. Das erarbeitete Konzept in Form eines Phasenmodells umfasst verschiedenste Methoden und Werkzeuge des Projektmanagements, wobei die einzelnen Phasen detailliert beleuchtet werden. Außerdem wird konkret auf das Projekt "Schiller Routenzug" eingegangen sowie die durchgeführten Aufgaben und angewendeten Methoden in den jeweiligen Phasen beschrieben. Abge-schlossen wird die Arbeit mit einer Limitation und einem Ausblick in die Zukunft der Intralogistik.



Hensel, Jacob;
Computergestützte Messwertaufnahme und automatisierte akustische Auswertung von Prüfstandsläufen zur Qualitätssicherung im Endfunktionstest der Dieselmotorenproduktion der MDC Power GmbH. - Ilmenau. - 90 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2019

Die vorliegende Arbeit thematisiert die computergestützte Messwertaufnahme und automatisierte akustische Auswertung von Prüfstandsläufen zur Qualitätssicherung im Endfunktionstest der Dieselmotorenproduktion der MDC Power GmbH. Dabei liegt die Konzentration auf der Optimierung der Luftschallmessung, sowie der Wiederinbetriebnahme der Körperschallmessvorrichtung in den Kalttestprüfständen. Es wird geprüft, inwiefern solche Messungen aussagekräftig sind und, ob fehlerhafte Bauteile einwandfrei und automatisiert erkannt werden können. Weiterhin wird untersucht, ob solche Messungen für alle Derivate und in allen Prüfständen umsetzbar sind. Die gesammelten Ergebnisse werden statistisch ausgewertet und auf ihre Vergleichbarkeit hin überprüft. Zusätzlich wird geprüft, ob sie die nötige Relevanz zur Qualitätssicherung haben. Abschließend wird der Nutzen einer solchen Messeinrichtung für das Unternehmen abgeschätzt. Es zeigt sich, dass verschiedene Bauteilfehler Einfluss auf die akustischen Eigenschaften eines Motors haben. Dabei sind Sie in ihrer Ausprägung nicht in allen Fällen ausreichend, um das Identifizieren eines Montage-/ Bauteilfehlers im Serienbetrieb zu ermöglichen. Weiterhin ließ sich beweisen, dass je nach Defekt verschiedene Sensoren an unterschiedlichen Positionen nötig sind, um eine zweifelsfreie Identifizierung gewährleisten zu können. Um die Montageumfänge aus dem Werk Kölleda überprüfen zu können, wird die Implementierung einer Luftschallmessanlage als sinnvoll angesehen, da diese die Chance bietet, die Anzahl der Fehlerlieferungen zu verringern.



Walz, Jurij;
Vergleich klassischer und innovativer Klassifikationsverfahren unter Einbeziehung der Ausreißerdetektion. - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Das maschinelle Lernen zählt aktuell zu einem schnell wachsenden Forschungsgebiet. Die unzähligen Anwendungsmöglichkeiten reichen von ökonomischen, technischen bis hin zu medizinischen Bereichen. Hierfür werden große Datenbanken verwendet, die heutzutage sehr schnell in Betrieben gesammelt werden können. Das Ziel ist es, neue Erkenntnisse aus den vorliegenden Daten zu erhalten. Dies ist unter "Data Mining" bekannt. In der vorliegenden Arbeit wird das innovative Klassifikationsverfahren Deep Learning zur industriellen Qualitätssicherung anhand von Bilddatensätzen angewandt und die Ergebnisse untersucht. Dabei soll herausgefunden werden, ob ein Mehrwert gegenüber den klassischen Klassifikationsverfahren entsteht. Vorliegende Datensätze enthalten jedoch oft unvollständige oder fehlerbehaftete Objekte, die sich negativ auf die Klassifikation auswirken können. In solchen Fällen kann eine vorgeschaltete Ausreißerdetektion und -behandlung Abhilfe schaffen. Aus diesem Grund werden in der vorliegenden Arbeit unterschiedliche Ausreißerdetektionsverfahren implementiert, um die Datensätze von möglichen Ausreißern zu säubern. Sowohl die Klassifizierung als auch die Datenreduktion werden vor dem Kontext erreichbarer Erkennungsraten untersucht. Alle Ergebnisse werden zusammengefasst und eine Einschätzung der Wirksamkeit der verwendeten Verfahren gegeben.



Analyse von Methoden des 3D-Computational Ghost-Imaging für messtechnische Anwendungen. - Ilmenau. - 75 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Das Computational-Ghost-Imaging ist eine Technik, dass ein Single-Pixel-Detektor und ein Lichtmodulator ein 2D-Bild ergeben. Das Ziel dieser Arbeit ist die Untersuchung und Evaluation der 3D-Bildrekonstruktion mit der Technik Computational-Ghost-Imaging. Dafür wurden verschiedene Verfahren für die Realisierung des Computational-Ghost-Imaging recherchiert und das Verfahren Compressed-Sensing wurde ausgewählt. Für die Kombination des Computational-Ghost-Imaging und Compressed-Sensing wurden drei Ansätze "Hadamard+TV", "Speckle+TV" und "Speckle+DFT" mit den Algorithmen TwIST/FISTA erarbeitet, simuliert und experimentell untersucht. Als Referenzbilder für die experimentelle Bewertung dieser Ansätze wurden die Bilder verwendet, welche durch die vollständige Messung im Hadamard-Bereich erfasst werden. Für die 3D-Rekonstruktion wurde das Verfahren "Structure-From-Motion" verwendet. Gemäß den Ergebnissen konnte es gezeigt werden, dass die Compressed-Sensing-basierten Ansätze "Hadamard+TV" und "Speckle+TV" eine akzeptable 2D-Bildqualität bei texturarmen und natürliche Szenen gewährleisten können und damit die 3D-Koordinaten der Objektpunkte auf Basis der restaurierten Bilder ermittelt werden können. Für die zukünftige Entwicklung soll das Signal-zu-Rausch-Verhältnis des Messaufbaus weiter verbessert werden.



Schardt, Timothy;
Analyse eines optischen Inline-Prüfsystems und Ableitung von Verbesserungspotenzial hinschtlich der Maschinenfähigkeitskennzahl. - Ilmenau. - 84 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In der Industrie werden hohe Anforderungen an optische Prüfsysteme gestellt. Gerade von der Automobilbranche gibt es strikte Vorschriften, die eingehalten werden müssen. Dazu gehört das Erreichen gewisser Fähigkeitskennwerte als Eignungsnachweis von Prüfprozessen. Bei diesen Prozessen spielen viele Faktoren, wie beispielsweise die verwendeten Kamera-Sensoren oder der zum Einsatz kommende Messalgorithmus, eine Rolle. Diese Faktoren haben wiederum einen Einfluss auf die Klassifizierung der geprüften Objekte. Im Rahmen dieser Arbeit wurde zunächst eine optische Prüfanlage aus einer der Schraubenproduktion untersucht. Dabei wurden verschiedene Einflussfaktoren ermittelt, welche sich negativ auf die Prüfmittelfähigkeitskennzahlen der Messanlage auswirken können. So versetzte beispielsweise die Messanlage im Betrieb die verwendeten Kameras des Prüfsystems in Bewegung. Da die Anlage außerdem regelmäßig von der Firma genutzt wurde, gestaltete es sich schwierig, die Versuchsbedingungen über mehrere Wochen konstant zu halten. Deshalb wurden an der TU Ilmenau zwei Modelle der Prüfanlage konstruiert, mit deren Hilfe einzelne Komponenten des Messsystems untersucht werden konnten. Teil dieser Modelle waren das optische Koordinatenmessgerät UNI-VIS 250 von der Mahr OKM GmbH sowie ein telezentrisches VisionMes-Modul der Firma Carl Zeiss AG mit einer Kamera von Q-Imaging. Zunächst musste sichergestellt werden, dass die Referenzmodelle dazu in der Lage sind, die geforderten Fähigkeitskennwerte zu erreichen. Anschließend konnten einzelne Komponenten des Messsystems verändert und die Auswirkungen auf die auftretende Messunsicherheit untersucht werden. Beispielsweise wurde der Einfluss verschiedener Methoden der Festlegung der sogenannten Areas of Interest (AOIs) gemessen. Des Weiteren wurde geprüft, wie die Messunsicherheit auf eine Änderung der Position des Kamera-Objektivs reagiert. Außerdem wurden verschiedene Methoden der Kantendetektion im Messalgorithmus angewandt und der Einfluss des Pixelfaktors näher betrachtet. Dabei ergab sich, dass insbesondere die Festlegung der AOIs und die Wahl des Verfahrens zur Kantendetektion einen relativ großen Effekt auf die Güte der Messergebnisse haben. Unterdessen beeinflusste die Verschiebung des Kamera-Objektivs um bis zu 4 mm die Messunsicherheit nicht signifikant. Im Fall des Pixelfaktors war es schwieriger einen eindeutigen Trend festzustellen. Deutlich wurde aber, dass durch die Verkleinerung des Pixelfaktors nicht zwingend auch eine geringere Messunsicherheit erreicht wurde.



Lue, Sun;
Volumetrische Analyse von additiv gefertigten Bauteilen unter Nutzung von 2D-Schichtbildauswertung in Bildstapel. - Ilmenau. - 24 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

In der Arbeit wurden die Methode für 2D-Schichtbildauswertung entwickelt, um die In-prozess Kontrolle von Laserschmelz zu realisieren . Durch Literaturrecherchen wurden die Grundlage von 2D-Schichtbildauswertung erklärt. Dann wurden die Urbilder durch Verzeichnungskorrektur und Perspektiv Transformation die geometrischen Fehler verarbeitet.Das Ziel diser Verarbeitung ist Entfernung des geometrisch Fehlers.Nach der Verarbeitung wurden die Methode der Segmentierung auswertet und die besten Methode der Segmentierung auswählt. Danach wurde das Ergebnis mit Hilfe von morphologischer Operation und flächenbaisert Methode verbessert. Nach der Verbesserung wurde das Ergebnis mit Hilfe von Praxiasüberprüfung auswertet.Zum Schluss wurden die Möglichfehler und DieMöglichkeiten der Verbesserung analysiert.



Untersuchung zur Nutzbarkeit des Convolutional-Neural-Networks für die echtzeitfähige Objektdetektion auf Basis von Farb- und 3D-Bilddaten. - Ilmenau. - 60 Seiten
Technische Universität Ilmenau, Masterarbeit 2019

Die Objektdetektion auf Basis von 3D-Bilddaten nimmt eine immer höhere Bedeutung in unterschiedlichen Bereichen an, insbesondere im industriellen Umfeld. Aufgrund der hohen Komple-xität und des Aufwands der Bildverarbeitung der 3D-Punktwolken ist eine Vorverarbeitung bzw. Vorsegmentierung der 3D-Daten sehr notwendig. Dafür ist das neuronale Netzwerk eine funktionsfähige Methode. Die kürzlich entwickelten neuronalen Netzwerke sind immer tiefer, breiter und komplexer in ihrer Architektur, Allerdings ist die Erkennungaufgabe im Bereich der indust-riellen Bildverarbeitung relativ simpel hinsichtlich der Objektform und des Hintergrundes, aber es werden eine hohe Stabilität und gute Echtzeitfähigkeit gefordert. In der vorliegenden Arbeit wurden einige neuronale Netzwerke, welche auf dem Konzept YOLO basieren, mit vereinfachten Architekturen im Darknet-Framework implementiert. Darüber hinaus wurden verschiedene Methoden für die Umkodierung von 3D-Daten mit einer 2D-Struktur untersucht. Die implementierten Netzwerke wurden mit einem erstellten annotierten realen Bilddatensatz trainiert, getestet und evaluiert. Zielsetzung dieser Arbeit ist es, ein neuronales Netzwerk und eine geeignete 3D-2D-Umkodierungmethode zu finden, welche die Anforderungen im industriellen Umfeld erfüllen können.