Studienabschlussarbeiten

Anzahl der Treffer: 696
Erstellt: Fri, 09 Dec 2022 23:07:53 +0100 in 0.0578 sec


Noor, Muhammad Tayab;
Optimisation of the 3D point cloud by using a non-end-to-end stereo matching framework for disparity refinement. - Ilmenau. - 61 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Stereo-Matching zur Disparitätsvorhersage aus rektifizierten Bildpaaren ist für viele Sehaufgaben wie Tiefenwahrnehmung und autonomes Fahren. Sie hat auch vom Deep Learning profitiert. In den letzten Jahren wurden mehrere Verfahren vorgeschlagen, die in End-to-End und Non-End-to-End Frameworks. End-to-End Frameworks verarbeiten alle Schritte in der Stereo Matching Pipeline, i.e. Kostenberechnung, Kostenaggregation, Disparitätsauswahl und Disparitätsverfeinerung. Non-End-to-End Frameworks ersetzen einen der vier Schritte in der Stereo Matching Pipeline. In dieser Masterarbeit habe ich den aktuellen Stand der Technik von Non-End-to-End Stereo Matching Frameworks für Disparitätsverfeinerung namens i DRR[40], RecResNet[41], LRCR[42], FD-Fusion[43] und Neural Disparity Refinement for Arbitrary Resolution Stereo[44] und wählte RecResNet und FD-Fusion für das Training mit den Datensätzen ausgewählt. Der Code wurde für die ausgewählten Frameworks geändert, um mit Python 3, den neuesten Python-Bibliotheken und unserem Datensatz kompatibel zu sein. Skripte wurden Skripte für die Datenvorverarbeitung, die Datenerweiterung und die Berechnung von Fehlerkarten geschrieben. Ausgewählte Frameworks wurden mit der SGBM-Methode von OpenCV kombiniert und auf Out-of-Distribution Datensätzen (KITTI 2015, SceneFlow (Driving)) und einem In-Distribution Datensatz (id25) trainiert. RecResNet schnitt bei allen Datensätzen nicht gut ab und wurde für weitere Trainings/Tests verworfen. FD-Fusion lieferte anfänglich vielversprechende Ergebnisse in allen Datensätzen und wurde für weiteres Training/Tests im id25-Datensatz. Das Modell wurde in vier verschiedenen Szenarien für den id25-Datensatz trainiert, die Folgendes umfassen Training des Modells ausschlieSSlich auf dem id25 (Assembly 1) Datensatz, Training des Modells auf dem id25 (Assembly 1), das auf SceneFlow trainiert wurde, das Training des Modells auf dem id25 (Assembly 1) Datensatz mit Datenerweiterung Augmentation, trainiert mit SceneFlow und Training des Modells auf dem id25 (Assembly 1 3 4)-Datensatz mit Datenerweiterung, die zuvor mit SceneFlow trainiert wurden Ausführliche Experimente und Bewertungen wurden wurden mit Disparitätskarten und 3DPunktwolken durchgeführt. Fehlerkarten wurden für vorhergesagte Disparitätskarten berechnet, und die Oberflächendistanz wurde mit segmentierten Teilen von 3D-Punktwolken Punktwolken berechnet, die unter Verwendung vorhergesagter Disparitätskarten erzeugt wurden. Nach eingehender Analyse der Ergebnisse wurde festgestellt, dass wurde geschätzt, dass eine Erhöhung der Trainingsdaten um approximately 300 Bilder den Fehler um approximately 10% senkt. Die Studie und die Ergebnisse sind hilfreich für Unternehmen oder Abteilungen, die Stereovision einsetzen oder in diesem Bereich beginnen.



Richter, Martin;
Aufbau eines 3D-Analysesystems für die Messung von Forstwegen (Wegekörperobefläche). - Ilmenau. - 109 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Stereo Imaging stellt aufgrund eines relativ einfachen Aufbaus und aufgrund umfangreicher freier Softwarepakete ein weitverbreitetes optisches Messverfahren für 3D-Messung dar. Eine Anwendung dieser Verfahren im forstlichen Umfeld für die Messung von Wegeprofilen ist nach Recherchen zum Stand der Technik bisher noch nicht erfolgt. Ziel der vorliegenden Arbeit ist es, ein Messsystem für die dreidimensionale Erfassung des Wegeprofils von Wald uns Forstwegen im Rahmen des CONTURA-Projektes auf Basis von stereoskopischen Methoden auszulegen und zu testen. Die Auslegung umfasst dabei eine Betrachtung der Bearbeitungszeiten für die Auswertung der Bilddaten in der Skriptsprache Python und dem Softwarepaket OpenCV und eine Optimierung mit dem Ziel einer Echtzeitbearbeitung. Die Bearbeitungszeit konnte dabei für eine Bildfrequenz von 30 Bildern/s der Größe 1280x860 auf 0,8 s reduziert werden. Hierbei erlangte das getestete Verfahren (SAD) nicht die gewünschte Tiefenauflösung.Höhere Auflösungen konnten durch die Variation der in OpenCV enthaltenen Blockmatchingmethoden erzielt werden. Die damit eingehende Erhöhung der Bearbeitungszeit um das Zehnfache macht eine echtzeitfähige Auswertung unter den gegebenen Anforderungen nicht realisierbar. Die annähernde Verdopplung in der Genauigkeit der Bildpunktsuche sowie die Subpixelauflösung erwiesen sich für die weiteren Untersuchungen als vorteilhafter als eine geringe Bearbeitungszeit. Darüberhinaus ist ein post-processing nach erfolgter Bildaufnahme ebenfalls eine Option. Im Rahmen der mechanischen Auslegung erfolgte das Erstellen von Modellen zur Ermittlung der Kameraanzahl und Sensoranforderungen für parallele und konvergente Ausrichtung der Kameras, um einem Bereich von vier Metern durchgängig mit einer in einem Bereich von mindestens ± 150 mm zu messen. Die Wahl des Kamerasystems erfolgte unter Berücksichtigung der Wirtschaftlichkeit, theoretischen Genauigkeit und rechtlichen Anforderungen. Die Funktionsfähigkeit des ausgelegten stereoskopischen Aufbaues und der Modelldaten wurde zuletzt in Feldmessungen validiert. Hierbei konnte eine Prozessfähigkeit in den Grenzen von ±10 mm gewährleistet werden. Die Detektion von Schäden erfolgte dabei zuverlässig bei Geschwindigkeiten von bis zu 10 km/h ohne zusätzliche Belichtung. Höherer Geschwindigkeiten sind durch den Einsatz einer aktiven Beleuchtung denkbar. Zur Reduktion des Einflusses des Umgebungslichtes wurden Untersuchungen zur Sonnenlichtunterdrückung unter Ausnutzung der Wasserdampfabsorptionsbande (940nm) durchgeführt. Der Effekt lässt sich für die Störlichtunterdrückung nutzen erfordert jedoch eine tageslichtabhängige Zusatzbeleuchtung. Die Eignung der stereoskopischen Methoden für die Detektion von Wegeschäden entlang der Wegkrone konnte nachgewiesen werden. Optimierungsbedarf besteht jedoch hinsichtlich der automatisierten Belichtung sowie der schnellen Bildaufnahme bei ca. 30km/h.



Hake, Cornelius;
In-Situ Auswertung des Laserkontaktierprozesses elektrischer Antriebe mittels Hochgeschwindigkeitsvideos sowie Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz. - Ilmenau. - 89 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die vorliegende Arbeit beschäftigt sich mit der prozessbegleitenden Auswertung des Laserkontaktierprozesses elektrischer Antriebe mittels Hochgeschwindigkeitsvideos sowie der Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz. In der Produktion moderner elektrischer Antriebe für batterieelektrische Fahrzeuge wird zur Erhöhung des Kupferfüllfaktors im Stator einer permanenterregten Synchronmaschine die Hairpintechnologie genutzt. Ein zentraler Schritt bei der Herstellung dieser Statoren ist die Kontaktierung der Hairpinenden mittels Laserstrahlschweißen. Dieser Schweißprozess ist geprägt durch geometrische und prozessbedingte Abweichungen aus vorherigen Prozessschritten, die auf das Ergebnis der Schweißverbindung Einfluss nehmen. Neben der Computertomographie als zerstörungsfreie nachgelagerte Prüfmethode ist es wünschenswert, eine prozessbegleitende Methode zur Überwachung zu finden. Im Rahmen der Prozessüberwachung von Schweißverbindungen werden häufig Hochgeschwindigkeitskameraaufnahmen zur Detektion von Schweißspritzern genutzt. Diese können zu Beginn der Arbeit durch ein, auf einem statischen Algorithmus basierenden Programm ausgewertet werden. In der Arbeit wird der bestehende statische Algorithmus um die neuen Abweichungsarten Rauch und Prozessleuchten erweitert. Des Weiteren wird die Detektion der Abweichungsart Spritzer, sowie der komplette Programmaufbau zahlreichen Verbesserungen unterzogen. Anschließend erfolgt eine Machbarkeitsanalyse hinsichtlich des Einsatzes von Künstlicher Intelligenz zur Detektion von Spritzern, in der sich die Methoden der Semantischen Segmentierung und der Einzelbildklassifikation als dienlich erweisen. In einem Vorversuch werden für die beiden Methoden jeweils drei Basisnetze hinsichtlich der besten Trainingsergebnisse evaluiert. Die Methode der Einzelbildklassifikation wird anschließend um einen nachgelagerten statischen Algorithmus erweitert, sodass ein hybrider Einsatz aus Künstlicher Intelligenz und Algorithmus untersucht wird. Parallel dazu erfolgt die Entwicklung eines Videoklassifikators als Kombination aus Faltungsnetzwerk und Long Short-Term Memory Netz. Die Bewertung und der abschließende Vergleich aller Auswertemethoden erfolgt anhand von Daten eines Großversuches. Dabei stellt sich heraus, dass der hybride Ansatz aus Einzelbildklassifikation und Algorithmus zahlreiche Vorteile bei der Detektion von Spritzern gegenüber der Semantischen Segmentierung und dem statischen Algorithmus aufweist. Darüber hinaus stellt die Videoklassifikation eine geeignete Methode dar, ohne Abweichungsquantifizierung geometrische und prozessbedingte Fehlerfälle zu detektieren.



Zheng, Licheng;
Aufbau einer Dualmatrixkamera auf Silizium- und InGaAs-Basis zur Erzielung einer breitbandigen multispektralen Bilderfassung. - Ilmenau. - 74 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Die folgende Arbeit befasst sich mit der Entwicklung eines Gerätes zur synchronen Erfassung von Objektinformationen durch die Kombination von einer Kamera im Infrarotbereich und einer Kamera im sichtbaren Bereich. Zunächst werden die verschiedenen Kombinationen verschiedener optischer Komponenten theoretisch diskutiert und nach Abwägung der Vor- und Nachteile die beste Möglichkeit ausgewählt. Der Zweck besteht darin, die visuellen und infraroten Kanäle zu trennen, damit die Kanäle auf die entsprechenden Sensoren fokussiert werden können. Darüber hinaus wird eine LED-Ringbeleuchtung mit einem Spektralbereich von 400-1800 nm entwickelt, um das Objektfeld mit dem Testobjekt zu beleuchten. Das Gerät kann in Bilderfassungssystemen für viele Aufgaben im Lebensmittel- und Recyclingbereich eingesetzt werden.



Konzeptentwicklung zur Reorganisation des Prozessflusses im Bereich der Montage für Zweigelenkwellen. - Ilmenau. - 77 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Gelenkwellen sind damals wie heute in vielen verschiedenen Industriezweigen vertreten. Dazu zählen unter anderem die Automobilindustrie, Traktoren und Landtechnik sowie der Schiffsbau. Diese Bachelorarbeit mit dem Thema ‚Konzeptentwicklung zur Reorganisation des Prozessflusses im Bereich der Montage für Zweigelenkwellen‘ beschäftigt sich mit der Optimierung der Montage solcher Gelenkwellen und wurde in der Gelenkwellenwerk Stadtilm GmbH erstellt. Dazu wurden neben den theoretischen Vorbetrachtungen im Bereich des Lean Managements sowie dem allgemeinen Aufbau von Gelenkwellen, Wertstromanalysen und Materialflüsse zu entsprechend vorher festgelegten Vertretern von Serien- und Projektwellen aufgenommen. Diese Daten wurden anschließend analysiert, ausgewertet und visualisiert. Anhand der Daten konnte ein Vergleich der verschiedenen Wertstromanalysen und Materialflüsse angestellt werden. Mittels dieser Datengrundlage wurden Potentiale zur Optimierung des Prozesses abgeleitet und daraus ein optimales Layout für die Montageabteilung entwickelt. Als übergeordnete Maßnahme hat sich die Trennung der Serien- und Projektwellenmontage herauskristallisiert. Aus dieser Layout Anpassung wurden nachfolgend Maßnahmen abgeleitet, um vom Ist- Zustand zum Soll- Zustand zu gelangen. Im Anschluss erfolgte eine Kostenabschätzung und Betrachtung der Auswirkungen auf die Minimierung der Verschwendungsarten. Eine Priorisierung der Maßnahmen wurde durch eine Aufwand- Nutzen- Betrachtung durchgeführt und ein Handlungsplan zur Umsetzung abgeleitet. Um die Wirtschaftlichkeit der Maßnahmen zu bewerten, wurde eine Return on Investment- Berechnung durchgeführt. Diese ergab, dass die Umstrukturierung, mit einem ROI von 0,9 Jahren, als wirtschaftlich angenommen werden kann und es sinnvoll ist, diese umzusetzen.



Khoury, Walaa;
Entwicklung einer effizienten Echtzeit 3D-Rekonstruktion auf dem NVIDIA Jetson Nano. - Ilmenau. - 72 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Im Rahmen dieser Arbeit wurde eine 3D-Rekonstruktion in Echtzeit auf dem NVIDIA Jetson Nano Kit realisiert. Der Begriff 3D-Rekonstruktion bedeutet, dass 3D-Bilddaten mit Hilfe von zwei Kameras und 3D-Bildverarbeitungsalgorithmen gewonnen werden können. Die Einsatzgebiete dieser Technologie sind vielfältig. Dazu gehören bspw. autonomes Fahren, Fertigungsprozesse und Industrieroboter. Dieses Ziel ist jedoch nicht einfach zu erreichen, da Bildverarbeitungsalgorithmen aufgrund der hohen Bilderfassungsrate einen großen Verbrauch an Prozessorressourcen erfordern. Dies erhöht die Belastung des Prozessors und erschwert die Ausführung von Anwendungen, die Echtzeitberechnungen erfordern. Eine mögliche Lösung für dieses Problem liegt in der Verwendung eines zusätzlichen Prozessors, der den Hauptprozessor bei zeitaufwändigen Rechenaufgaben wie Fließkommaoperationen, Grafik-Funktionen sowie Signalverarbeitung unterstützt und entlastet. Heutzutage gibt es viele Hardwareplattformen auf dem Markt, unter anderem GPU, FPGA und ASIC. Jede Hardwareplattform hat ihre eigenen Eigenschaften, Vorteile und Einsatzgebiete. Zur Realisierung eines passiven Stereosystems wurde in dieser Arbeit das NVIDIA Jetson Nano Entwicklerkit verwendet, das einen Quad-Core-ARM A57 CPU sowie einen NVIDIA Grafikprozessor GPU enthält. Auf diesem Kit wurde der Semi-Global Matching Algorithmus ausgeführt. Die Implementierungsschritte wurden zwischen der CPU und der GPU aufgeteilt, um Berechnungen in Echtzeit durchzuführen. Nach der Implementierung wurde die Laufzeiten des Gesamtsystems (Bildeinzug bis Tiefenkartenberechnung) für die Bildauflösung von 1280 px × 720 px und für einen Disparitätsbereiche von 256 px, 128 px und 64 px mit 4 und 8 Pfadrichtungen ermittelt. Das Gesamtsystems erreicht bspw. eine Laufzeit von 230,98 ms für einen Disparitätsbereich von 128 px und 4 Pfaden. Wird die Bildauflösung auf 640 px × 480 px reduziert, wird hingegen eine Latenzzeit von 98 ms erreicht. Aufgrund der geringen Leistung und des geringen Speicherplatzes des Jetson Nano Moduls, können keine Tiefenkarten für eine Bildauflösung von 1280 px × 720 px und einem Disparitätsbereich von 256 px mit 8 Pfaden berechnet werden. Um eine einfache Steuerung des Stereosystems zu ermöglichen, wurde eine grafische Benutzeroberfläche erstellt. Neben den Ergebnissen werden auch Faktoren diskutiert, die die Genauigkeit des entwickelten Stereokamerasystems negativ beeinflussten. Um die Effizienz des Systems mit dem Stand der Technik zu vergleichen, wurde der SGM Algorithmus von Hernandez-Juarez et al. auf dem Jetson Nano Modul umgesetzt. Hierbei ist die Laufzeit auf dem Jetson Nano Entwicklungskit 3,77 ms langsamer, als die in der Veröffentlichung.



Köthe, Elisa;
Messunsicherheitsbestimmung für das Dunkelsignal von Leuchtdichtemesskameras unter Verwendung der Monte-Carlo-Methode und verschiedener Regressionsmodelle. - Ilmenau. - 92 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Ziel der vorliegenden Bachelorarbeit war es, die Messunsicherheit für das Dunkelsignal von Leuchtdichtemesskameras zu bestimmen. Dafür wurde zunächst das Verhalten des Dunkelsignals in Abhängigkeit von Integrationszeit und Kameratemperatur untersucht. Anschließend wurden mit Hilfe von verschiedenen mathematischen Modellen Formeln zur Vorhersage des Dunkelsignals, in Abhängigkeit von Integrationszeit und Kameratemperatur, hergeleitet. Ausgehend von diesen Modellgleichungen sind Messunsicherheitsanalysen für die Dunkelsignalbestimmung erstellt wurden. Dafür wurden zunächst die Unsicherheiten der Einflussgrößen, die in den Modellgleichungen verwendet werden, genau analysiert. Außerdem wurden für die Analyse der Messunsicherheit des Dunkelsignals vollständige GUM-konforme Messunsicherheitbudgets erstellt. Abschließend wurde die Qualität der Ergebnisse abgeschätzt. Dafür wurde die Differenz zwischen Dunkelsignal-Vorhersage und Dunkelsignal-Messung sowie die erzielte Nachweisgrenze betrachtet. Für das Dunkelsignal, in Abhängigkeit von Integrationszeit und Kameratemperatur, wurden drei Modellgleichungen hergeleitet. Dabei zeigt eine Modellgleichung eine exponentielle Temperaturabhängigkeit, während die anderen beiden die Messwerte mit Polynomen 2. Grades beschreiben. In einer der Polynom-Modellgleichungen wurden außerdem normierte Kameratemperaturen verwendet, um die entstehenden Unsicherheiten des Dunkelsignals zu minimieren. Die Unsicherheit des vorhergesagten Dunkelsignals wurde dabei auf unter 1% für alle Integrationszeiten und Kameratemperaturen im festgelegten Arbeitsbereich gesenkt. Außerdem wurde unter Verwendung der normierten Polynomfunktion zur Vorhersage und Korrektur des Dunkelsignals eine Nachweisgrenze von 0,21% des Messbereichsendwertes für alle Integrationszeiten und Kameratemperaturen im festgelegten Arbeitsbereich unterschritten.



Umsetzung einer Software für die Charakterisierung von Kameras nach EMVA Standard 1288 - Release 4.0 Linear mit dem MATLAB - App Designer. - Ilmenau. - 49 Seiten
Technische Universität Ilmenau, Bachelorarbeit 2022

Im Rahmen dieser Arbeit wurde eine Software zum Aufnehmen und Auswerten von Messungen in Anlehnung an den EMVA Standard 1288 Release 4.0 Linear in Matlab App Designer umgesetzt. Als Basis diente dabei eine bestehende Software in Matlab GUIDE, die dem EMVA Standard 1288 Release 3.1 entspricht. Zur Verifikation der Funktionsfähigkeit wurden mit drei verschiedenen Kameras Messungen in beiden Programmversionen aufgenommen und die Vergleichbarkeit der Ergebnisse nachvollzogen. Die Unterschiede zwischen den Versionen des EMVA Standard 1288 Release 3.1 und Release 4.0 Linear wurden herausgearbeitet und sowohl theoretisch als auch in den praktischen Ergebnissen dargestellt.



Schlauch, Katharina;
Die Inbetriebnahme und Optimierung eines Stereosensors auf Zeilenkamerabasis. - Ilmenau. - 97 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

In Zeiten, in denen der Druck bezüglich hoher Effizienz und Effektivität steigt, und daher Automatisierung ein wichtiges Thema ist, sind auch die steigenden Qualitätsanforderungen ein entscheidender Faktor. Dementsprechend gilt es kostengünstige und effiziente Systeme zur Erfüllung und Überwachung der Qualitätsanforderungen zu entwickeln und zu nutzen. Üblicherweise werden hierbei optische Messsysteme eingesetzt. Diese Arbeit baut auf zwei Vorprojekte auf, die sich mit der Dimensionierung und Auslegung einer triangulationsbasierten Standardstereoanordnung eines Zeilenkamerasystems beschäftigen. Es gilt den Aufbau des Systems zu optimieren. Grundvoraussetzung für Optimierungsmaßnahmen sind die Funktionsfähigkeit und die Kalibrierung des Systems. Bereits aus dem letzten Vorprojekt sind Schwachstellen der triangulationsbasierten Standardstereoanordnung eines Zeilenkamerasystems bekannt. Daher ist die Zielsetzung dieser Arbeit, die einzelnen Komponenten zu charakterisieren und hinsichtlich möglicher Schwachstellen und deren Einfluss auf die Messgenauigkeit zu bewerten. Mögliche Schwachstellen betreffen die Kameras, den Laser und sowohl die thermische als auch die mechanische Stabilität des Systems. Daher werden unterschiedliche Aspekte analysiert: das thermische Verhalten, die intrinsischen Parameter der Zeilenkameras und des Lasers sowie die extrinsischen Parameter der Kameras. Bei den Untersuchungen zeigt sich, dass eine thermische Instabilität ausgeschlossen werden kann, allerdings die mechanische Stabilität erheblich eingeschränkt ist. Weiterhin zeigt die Analyse der Kameras, dass die intrinsischen Parameter keine Herausforderung darstellen. Die Untersuchungen des Lasers zeigen, dass dieser erhebliche Inhomogenitäten aufweist. Dabei sind die Inhomogenitäten sowohl zeitlich als auch örtlich reproduzierbar. Die Analyse der extrinsischen Parameter der Kameras ergibt, dass eine Fehlausrichtung vorliegt. Auf Basis der identifizierten Schwachstellen werden Verbesserungsmaßnahmen durchgeführt, die in weiterführenden Arbeiten optimiert werden sollten.



Wang, Jingyu;
Entwicklung eines multifunktionalen Kalibrierungstools für einen Roboter mit Multikamerasystem. - Ilmenau. - 45 Seiten
Technische Universität Ilmenau, Masterarbeit 2022

Das Hand-Auge-System des Roboters ist dabei ein sehr wichtiger Bestandteil. In der Produktion unterstützen Hand-Auge-Systeme die Roboter bei Aufgaben wie Montage und Schweißen. In der Logistik können sie auch Robotern beim Sortieren und bei anderen Aufgaben helfen. Damit Roboter hochpräzise Hand-Augen-Systeme verwenden können, ist die Kalibrierung der Hand-Augen-Systeme eine wesentliche Aufgabe. Die Kalibrierung des Hand-Augen-Systems des Roboters war jedoch schon immer eine komplexe Aufgabe. Diese Arbeit basiert auf dem ROS und entwickelt ein Programm mit einer grafischen Benutzeroberfläche für eine einfache Hand-Augen-Kalibrierung auf der rqt-Plattform, wobei der UR10-Roboter als Ziel verwendet wird. Vor dem Hintergrund dieser Arbeit werden zunächst die grundlegenden Prinzipien der Kamerakalibrierung vorgestellt. Die kamerainterne Referenzkalibrierung ist eine Voraussetzung für die Kalibrierung mit den Augen und die Durchführung der Kamerakalibrierung. Anschließend werden die grundlegenden Komponenten des Hand-Augen-Systems beschrieben und zwei gängige Hand-Augen-Systeme, Auge in der Hand und Auge zur Hand, vorgestellt. Außerdem werden drei Algorithmen zur Hand-Augen-Kalibrierung beschrieben und in das Programm implementiert. Der Rahmen von ROS und seine Kommunikationsmechanismen werden unmittelbar danach beschrieben. Die in der Simulationsumgebung von ROS verwendeten Programme, Werkzeuge und Pakete werden beschrieben. Um die Güte der drei Hand-Augen-Kalibrierungsalgorithmen zu überprüfen, wurden Simulationsexperimente auf der Grundlage von ROS durchgeführt. Anschließend werden Simulationsexperimente zu den Faktoren durchgeführt, die die Schätzung der externen Parameter beeinflussen. Die grundlegenden Eigenschaften von rqt werden beschrieben und verschiedene rqt-Plug-ins, die mit ROS geliefert werden und in dieser Arbeit verwendet werden, werden vorgestellt. Schließlich werden die Schlussfolgerungen aus den Simulationsexperimenten für die Entwicklung des Kalibrierungsverfahrens verwendet. Insgesamt wurden fünf benutzerdefinierte rqt-Plug-ins entwickelt. Dabei handelt es sich um einen Parameter-Manager, einen Motion Boundary Adder, einen Motionsplaner, einen Bildauswähler und einen Optimierer für Kalibrierungsergebnisse. Wenn diese Plug-ins zusammenarbeiten, kann die Hand-Auge-Kalibrierung schnell und innerhalb weniger Minuten abgeschlossen werden.