Technische Universität Ilmenau

Lernen in kognitiven Systemen - Modultafeln der TU Ilmenau

Die Modultafeln sind ein Informationsangebot zu den Studiengängen der TU Ilmenau.

Die rechtsverbindlichen Studienpläne entnehmen Sie bitte den jeweiligen Studien- und Prüfungsordnungen (Anlage Studienplan).

Alle Angaben zu geplanten Lehrveranstaltungen finden Sie im elektronischen Vorlesungsverzeichnis.

Informationen und Handreichungen zur Pflege von Modulbeschreibungen durch die Modulverantwortlichen finden Sie unter Modulpflege.

Hinweise zu fehlenden oder fehlerhaften Modulbeschreibungen senden Sie bitte direkt an modulkatalog@tu-ilmenau.de.

Modulinformationen zu Lernen in kognitiven Systemen im Studiengang Master Informatik 2009
Modulnummer182
Prüfungsnummer2200098
FakultätFakultät für Informatik und Automatisierung
Fachgebietsnummer 2233 (Neuroinformatik und Kognitive Robotik)
Modulverantwortliche(r)Prof. Dr. Horst-Michael Groß
TurnusSommersemester
SpracheDeutsch
Leistungspunkte3
Präsenzstudium (h)22
Selbststudium (h)68
VerpflichtungWahlmodul
Abschlussalternative Prüfungsleistung
Details zum Abschluss

Besteht aus schriftlicher Prüfung 90 min (100% der Note) und zugehöriger Seminaraufgabe

Alternative Abschlussform aufgrund verordneter Corona-Maßnahmen inkl. technischer Voraussetzungen
Anmeldemodalitäten für alternative PL oder SLDie Anmeldung zur alternativen semesterbegleitenden Abschlussleistung erfolgt über das Prüfungsverwaltungssystem (thoska) außerhalb des zentralen Prüfungsanmeldezeitraumes. Die früheste Anmeldung ist generell ca. 2-3 Wochen nach Semesterbeginn möglich. Der späteste Zeitpunkt für die An- oder Abmeldung von dieser konkreten Abschlussleistung ist festgelegt auf den (falls keine Angabe, erscheint dies in Kürze):
  • Anmeldebeginn: 05.11.2021
  • Anmeldeschluss: 12.11.2021
  • Rücktrittsfrist:
  • letzte Änderung der Fristen:
max. Teilnehmerzahl
Vorkenntnisse

LV Neuroinformatik LV Angewandte NI

Lernergebnisse und erworbene Kompetenzen

In der Vorlesung "Lernen in Kognitiven Systemen" lernen die Studierenden aufbauend auf der Vorlesung „Neuroinformatik und Maschinelles Lernen” die konzeptionellen, methodischen und algorithmischen Grundlagen des Maschinellen Lernens zum Erwerb komplexer Verhaltensleistungen in kognitiven Systemen (Autonome Systeme, Roboter, Prozessteuerungen, Spiele) durch Lernen aus Erfahrungen kennen. Sie verstehen die grundsätzliche Herangehensweise dieser Form des Wissenserwerbs, der Generierung von handlungsorientiertem Wissen aus Beobachtungen und Erfahrungen. Die Studierenden lernen die wesentlichen Konzepte, Lösungsansätze sowie Modellierungs- und Implementierungstechniken beim Einsatz von Verfahren des Reinforcement Learnings und dessen Spielarten kennen. Sie sind in der Lage, praxisorientierte Fragestellungen aus dem o. g. Problemkreis zu analysieren, durch Anwendung des behandelten Methodenspektrums auf Fragestellungen aus den behandelten Bereichen neue Lösungskonzepte zu entwerfen und algorithmisch umzusetzen sowie bestehende Lösungen zu bewerten. Vor- und Nachteile der Komponenten und Verfahren im Kontext praktischer Anwendungen sind den Studierenden bekannt.

Inhalt

Die Lehrveranstaltung vermittelt das erforderliche Methodenspektrum aus theoretischen Grundkenntnissen und praktischen Fähigkeiten zum Verständnis, zur Implementierung und zur Anwendung neuronaler und probabilistischer Techniken des Erwerbs von Handlungswissen durch Lernen aus evaluativ bewerteten Erfahrungsbeispielen. Sie vermittelt sowohl Faktenwissen, begriffliches und algorithmisches Wissen aus folgenden Themenkomplexen:

  • Begriffliche Grundlagen: Verhalten; Agent; Zweck und Bedeutung von Lernprozessen; Stability-Plasticity Dilemma; Exploration-Exploitation Dilemma
  • Reinforcement Learning (RL): Grundidee des RL; General RL-Task; Schwache und starke RL-Verfahren, RL als Markov Decision Process (MDP); Basiskomponenten eines RL-Agenten; Value/Action-Value Iteration und das Bellman´sche Optimalitätsprinzip; Q-Learning, Boltzmann-Aktionsauswahl; SARSA-Learning; On-policy und off-policy Verfahren; Eligibility Traces; RL und teilweise Beobachtbarkeit; Lösungsansätze zur Behandlung von POMDP
  • Neuronale Umsetzung von RL-Agenten: Value Approximation am Beispiel TD-Gammon; NFQ-Verfahren; ADHDP-Verfahren; Grundidee von Policy Search Algorithmen
  • Deep Reinforcement Learning (DRL) als Form des End-to-End Learnings: Atari Deep RL; AlphaGo
  • Learning Classifier Systems (LCS)
  • Multi-Agenten Systeme (MAS); Motivation und Arten von Multi-Agentensystemen; Konzepte zur Koordinierung von Agenten; Koordination mittels W-Lernen, Problem der Rewarddekomposition
  • Exemplarische Software-Implementierungen von RL-Verfahren für Navigationsaufgaben, Spiele, Prozesssteuerungen

 

Im Rahmen des Pflichtpraktikums (Teilleistung 2) sollen in C++ eigene Plugins zur Anwendung des Reinforcement Learnings am Beispiel der Roboternavigation im Simulator erstellt und experimentell untersucht werden. Neben den algorithmischen Umsetzungen werden auch ethische, soziale und rechtliche Aspekte beim Einsatz von Techniken des Maschinelles Lernens diskutiert.

 

Medienformen und technische Anforderungen bei Lehr- und Abschlussleistungen in elektronischer Form

Präsenzvorlesung mit Powerpoint, Lectures on demand mit Erläuterungsvideos zu Vorlesungs-, Übungs- und Praktikumsinhalten, Arbeitsblätter zur Vorlesung, Übungsaufgaben, Python Apps, studentische Demo-Programme, e-Learning mittels „Jupyter Notebook”

Literatur

- Sutton, R., Barto, A. Reinforcement Learning – An Introduction. MIT Press 1998

- Bishop, Ch.: Pattern Recognition and Machine Learning, Springer 2006

- Alpaydin, Ethem: Maschinelles Lernen, Oldenbourg Verlag 2008

- Murphy, K. : Machine Learning – A Probabilistic Perspective, MIT Press 2012

- Goodfellow, I. et al.: Deep Learning, MIT Press 2016

Lehrevaluation

Pflichtevaluation:

Freiwillige Evaluation:

SS 2010 (Vorlesung)

SS 2011 (Vorlesung)

SS 2012 (Vorlesung)

SS 2014 (Vorlesung)

SS 2015 (Vorlesung)

SS 2016 (Vorlesung)

SS 2018 (Vorlesung, Übung)

SS 2019 (Vorlesung, Übung)

Hospitation: