Technische Universität Ilmenau

Deep Learning für Computer Vision - Modultafeln der TU Ilmenau

Die Modultafeln sind ein Informationsangebot zu den Studiengängen der TU Ilmenau.

Die rechtsverbindlichen Studienpläne entnehmen Sie bitte den jeweiligen Studien- und Prüfungsordnungen (Anlage Studienplan).

Alle Angaben zu geplanten Lehrveranstaltungen finden Sie im elektronischen Vorlesungsverzeichnis.

Informationen und Handreichungen zur Pflege von Modulbeschreibungen durch die Modulverantwortlichen finden Sie unter Modulpflege.

Hinweise zu fehlenden oder fehlerhaften Modulbeschreibungen senden Sie bitte direkt an modulkatalog@tu-ilmenau.de.

Modulinformationen zu Deep Learning für Computer Vision im Studiengang Bachelor Informatik 2013
Modulnummer200133
Prüfungsnummer220490
FakultätFakultät für Informatik und Automatisierung
Fachgebietsnummer 2233 (Neuroinformatik und Kognitive Robotik)
Modulverantwortliche(r)Prof. Dr. Horst-Michael Groß
TurnusWintersemester
SpracheDeutsch
Leistungspunkte5
Präsenzstudium (h)45
Selbststudium (h)105
VerpflichtungWahlmodul
AbschlussPrüfungsleistung mit mehreren Teilleistungen
Details zum AbschlussDas Modul Deep Learning für Computer Vision mit der Prüfungsnummer 220490 schließt mit folgenden Leistungen ab:
  • schriftliche Prüfungsleistung über 90 Minuten mit einer Wichtung von 100% (Prüfungsnummer: 2200826)
  • alternativ semesterbegleitende Studienleistung mit einer Wichtung von 0% (Prüfungsnummer: 2200827)


Details zum Abschluss Teilleistung 2:

erfolgreicher Abschluss der gestellten Implementierungsaufgaben mittels vorgegebener Deep Learning Frameworks

Anmeldemodalitäten für alternative PL oder SL
max. Teilnehmerzahl
Vorkenntnisse

Bachelor-Pflichtmodul "Neuroinformatik und Maschinelles Lernen"

Lernergebnisse und erworbene Kompetenzen

Im Modul "Deep Learning für Computer Vision" haben die Studierenden die konzeptionellen, methodischen und algorithmischen Grundlagen von DNNs (Deep Neural Networks) kennen gelernt. Sie haben die grundsätzliche Herangehensweise dieser Form des Wissenserwerbs, der Generierung von implizitem Wissen aus Trainingsbeispielen, verstanden. Sie wissen, wie ein tiefes Neuronales Netzwerk aus Trainingsbeispielen lernt und diese nach Beendigung der Lernphase verallgemeinern kann, da das Netzwerk Muster und Gesetzmäßigkeiten in den Lerndaten erkannt hat. Die Studierenden haben sich die wesentlichen Konzepte, Lösungsansätze sowie Modellierungs- und Implementierungstechniken beim Einsatz von Deep-Learning-Verfahren und der zugehörigen Frameworks zur Implementierung solcher Netzwerke angeeignet.
Durch die Anwendung des erworbenen Wissens in ergänzenden, praxisnahen Implementierungsaufgaben (Teilleistung 2) sind die Studierenden in der Lage, Fragestellungen aus dem Anwendungsfeld Computer Vision zu analysieren, durch Anwendung des behandelten Methodenspektrums auf Fragestellungen aus den behandelten Bereichen neue Lösungskonzepte zu entwerfen und algorithmisch umzusetzen sowie bestehende Lösungen zu bewerten. Nach intensiven Diskussionen während der Übungen und zur Auswertung der Python-Implementierung können die Studierenden Leistungen ihrer Mitkommilitonen richtig einschätzen und würdigen. Sie berücksichtigen Kritik, beherzigen Anmerkungen und nehmen Hinweise an.

Inhalt

Zunächst werden wichtige Grundlagen des Moduls "Neuroinformatik & maschinelles Lernen" in Kurzfassung wiederholt. Aufbauend auf diesen Grundlagen werden weiterführende Deep-Learning-Techniken des aktuellen State of the Arts vermittelt. Anschließend wird vermittelt, welche Besonderheiten bei der Einbindung der Deep-Learning-Techniken und -Architekturen in verschiedene Anwendungsbereiche beachtet werden müssen. Außerdem wird auf die praktische Anwendung der Techniken und Architekturen auf eigenen Problemstellungen und Daten eingegangen. Abschließend wird auf aktuelle Forschungsfragen eingegangen. Alle Vorlesungsinhalte werden in praxisnahen Übungen vertieft.

Detaillierte Gliederung:
1. Einführung:  Verfahrensübersicht und Eingrenzung, Lernparadigmen, Überblick bekannte Architekturen und Datensätze
2. Frameworks: Keras, TensorFlow, PyTorch (Installation, Einrichtung, Vergleich)
3. Grundlagen Neuronaler Netzwerke und mathematische Zusammenhänge
- Kurze Wiederholung  aus Vorlesung "Neuroinformatik": Formales statisches Neuron, Multi Layer Perceptron, Schichten des Convolutional Neural Networks, Backpropagation (Stochastic Gradient Descent mit Mini-Batches, Optimierungsverfahren, Regularisierungstechniken)
- Beispielhafte Umsetzung der Grundlagen aus der Wiederholung in den Frameworks Keras und PyTorch
- Komplexes Beispiel LeNet
4. Architekturen
- ImageNet-Architekturen: AlexNet, VGG, Inception, ResNet, ResNext, SE-ResNet
- Weitere bekannte Architekturen: Stochastic Depth in ResNets, DenseNet, Wide ResNet, Xception, Inception-ResNet
- Mobile Architekturen: MobileNet (Version 1, 2 & 3), SqueezeNet, ShuffleNet (Version 1 & 2), SkipNet, ENet
- Ausblick: Was gibt es noch: Autoencoder, Restricted Boltzmann Machines, Deep Belief Networks, Rekurrente Netzwerke, Capsule Networks
- Schwerpunkte bilden die Kerntechnologien der vorgestellten Architekturen: Deep-Learning-Techniken, Regularisierungsmethoden, moderne Aktivierungsfunktionen
5. Anwendungen
- Von der Klassifikation zur Detektion: Sliding Window ersetzt durch Convolution, Region Proposal
- Segmentierung: pixelgenaue Klassifikation
- Posenerkennung: Skelettpunkte des Körpers schätzen
- Wiedererkennung: Gesichtserkennung, moderne Fehlerfunktionen
- Zusammenfassung: Begriffe und Konzepte zum Nachschlagen, gebräuchliche Datensätze, Bewertungsmetriken
6. Praktische Anwendung auf eigene Problemstellungen (Best Practice Guide)
- Umgang mit Daten: Auswahl Datensätze, Datenaufbereitung, Datenaugmentierung, Datensatzaufteilung
- Auswahl der Architektur und geeigneter Deep-Learning-Techniken: Auswahl Architektur, Auswahl Fehlerfunktionen, Auswahl Regularisierungstechniken, Transfer Learning
- Auswahl geeigneter Bewertungsmaße
- Typische Probleme und abzuleitende Schlussfolgerungen
7. Probleme und aktuelle Forschung
- Ausblick mit grundlegenden Lösungen, Kernkonzepten und Verweisen auf die Literatur
- Fragestellungen sind unter anderem: Was geht in Neuronalen Netzwerken vor? Kann man Neuronalen Netzwerken vertrauen? Sind tiefe Neuronale Netzwerke für Echtzeitanwendungen schnell genug? Wie flexibel sind Neuronale Netzwerke?

Medienformen

Powerpoint-Folien (als Papierkopie oder PDF), Übungsvordrucke, Videos, Python-Quelltextbeispiele, Deep Learning Frameworks, Jupyter Notebooks, Moodle-Kurs

Literatur

A. Rosebrock: Deep Learning for Computer Vision with Python

Lehrevaluation