Technische Universität Ilmenau

Robotvision - Modultafeln der TU Ilmenau

Die Modultafeln sind ein Informationsangebot zu den Studiengängen der TU Ilmenau.

Die rechtsverbindlichen Studienpläne entnehmen Sie bitte den jeweiligen Studien- und Prüfungsordnungen (Anlage Studienplan).

Alle Angaben zu geplanten Lehrveranstaltungen finden Sie im elektronischen Vorlesungsverzeichnis.

Informationen und Handreichungen zur Pflege von Modulbeschreibungen durch die Modulverantwortlichen finden Sie unter Modulpflege.

Hinweise zu fehlenden oder fehlerhaften Modulbeschreibungen senden Sie bitte direkt an modulkatalog@tu-ilmenau.de.

Modulinformationen zu Robotvision im Studiengang Master Ingenieurinformatik 2014
Modulnummer200087
Prüfungsnummer220457
FakultätFakultät für Informatik und Automatisierung
Fachgebietsnummer 2233 (Neuroinformatik und Kognitive Robotik)
Modulverantwortliche(r)Prof. Dr. Horst-Michael Groß
TurnusWintersemester
SpracheDeutsch
Leistungspunkte5
Präsenzstudium (h)45
Selbststudium (h)105
VerpflichtungWahlmodul
AbschlussPrüfungsleistung mit mehreren Teilleistungen
Details zum AbschlussDas Modul Robotvision mit der Prüfungsnummer 220457 schließt mit folgenden Leistungen ab:
  • schriftliche Prüfungsleistung über 90 Minuten mit einer Wichtung von 100% (Prüfungsnummer: 2200747)
  • Studienleistung mit einer Wichtung von 0% (Prüfungsnummer: 2200748)


Details zum Abschluss Teilleistung 2:

Erfolgreiche Implementierung von zwei vorgegebenen Navigationsalgorithmen im vorhandenen Navigationsframe Simulator

Alternative Abschlussform aufgrund verordneter Corona-Maßnahmen inkl. technischer Voraussetzungen
Anmeldemodalitäten für alternative PL oder SL
max. Teilnehmerzahl
Vorkenntnisse

Kognitive Robotik

Lernergebnisse und erworbene Kompetenzen

Im Modul "Robotvision" haben die Studierenden die Begrifflichkeiten und das Methodenspektrum des Maschinellen Sehens mit Fokus in der mobilen Robotik kennen gelernt. Sie haben das Paradigma der handlungsorientierten Wahrnehmung - insbesondere zur visuellen Roboternavigation in natürlicher Umwelt verstanden. Sie beherrschen wichtige Basisoperationen für die visuelle Wahrnehmung der Umgebung (Tiefe, Bewegung, Hindernisse, Freiraum, Räumlichkeiten, eigene Position in der Welt) und können Handlungskonsequenzen aus der visuellen Wahrnehmung der Umgebung ableiten. Sie haben Techniken der vision-basierten Umgebungswahrnehmung und der lokalen und globalen Navigation von Kognitiven Robotern in komplexer realer Einsatzumgebung kennen gelernt.

Die Studierenden sind in der Lage, Fragestellungen aus dem o. g. Problemkreisen zu analysieren, durch Anwendung des behandelten Methodenspektrums Lösungskonzepte für unterschiedliche Fragestellungen der Service- und Assistenzrobotik zu entwerfen und umzusetzen, sowie bestehende Lösungskonzepte zu bewerten. Vor- und Nachteile der Komponenten und Verfahren im Kontext praktischer Anwendungen sind den Studierenden bekannt. Nach intensiven Diskussionen während der Übungen und zur Auswertung des Praktikums (Teilleistung 2) können die Studierenden Leistungen ihrer Mitkommilitonen richtig einschätzen und würdigen. Sie berücksichtigen Kritik, beherzigen Anmerkungen und nehmen Hinweise an.

Inhalt

Das Modul vermittelt das erforderliche Methodenspektrum aus theoretischen Grundkenntnissen und praktischen Fähigkeiten zum Verständnis, zur Implementierung und zur Anwendung von Verfahren der vision-basierten Roboternavigation sowie zur erforderlichen Informations- und Wissensverarbeitung. Es vermittelt sowohl Faktenwissen, begriffliches und algorithmisches Wissen aus folgenden Themenkomplexen:

  • Basisoperationen d. Roboternavigation
  • Neuronale Basisoperationen der visuo-motorischen Verarbeitung - der neuronale Instruktionssatz: funktionelle und topografische Abbildungen (u.a. log-polare Abbildung), Auflösungspyramiden, neuronale Felddynamik, ortsvariante Informationsverarbeitung
  • Basisoperationen & Technologien für die visuelle Umgebungswahrnehmung:
    • Detektoren & Deskriptoren für Interest-Points in 2D-Bildern
    • Bewegungssehen und optischer Fluss
    • Tiefenwahrnehmung, Tiefenkameras (RGB-D Kameras)
    • Detektoren & Deskriptoren für Tiefenbilder (3D-Bilder)
    • Visuelle Odometrie
  • Vision-basierte Roboternavigation
    • Hindernisvermeidung (u.a. flussbasiert, Untergrund-Segmentierung)
    • Mapping und Selbstlokalisation
    • Visuelles SLAM (Simultaneous Localization and Map Building inkl. ORB-SLAM)
  • Innovative Entwicklungen (z.B. Semantisches Labeln)
  • Exemplarische Software-Implementierungen von Basisoperationen

Im Rahmen des Praktikums werden die behandelten methodischen und algorithmischen Grundlagen der vision-basierten Roboternavigation durch die Studierenden selbst softwaretechnisch umgesetzt und im Rahmen eines vorgefertigten Robotersimulations-Frameworks implementiert (Teilleistung 2).

Link zum Moodle-Kurs

https://moodle2.tu-ilmenau.de/course/view.php?id=3744

 

Medienformen und technische Anforderungen bei Lehr- und Abschlussleistungen in elektronischer Form

Präsenzvorlesung mit Powerpoint, Arbeitsblätter zur Vorlesung, Übungsaufgaben, Videos, Python Apps, e-Learning mittels "Jupyter Notebook", Moodle-Kurs

 

Link zum Moodle-Kurs

https://moodle2.tu-ilmenau.de/course/view.php?id=3744

Literatur

- Hertzberg, J., Lingemann, K., Nüchter, A.: Mobile Roboter, Springer 2012

- Siegwart, R., Nourbakhsh, I. R., Scaramuzza, D.: Introduction to Autonomous Mobile Robots. MIT Press 2004

- Jähne, B. Digitale Bildverarbeitung. Springer Verlag 2005

- Bradsky, G., Kaehler, A. Learning OpenCV: Computer Vision with OpenCV Library

- Siciliano, B., Khatib: O. Springer Handbook of Robotics, Springer 2016

- Thrun, S., Burgard, W., Fox, D.: Probabilistic Robotics, MIT Press 2005

 

Lehrevaluation