Technische Universität Ilmenau

Lernen in kognitiven Systemen - Modultafeln der TU Ilmenau

Die Modultafeln sind ein Informationsangebot zu unseren Studiengängen. Rechtlich verbindliche Angaben zum Verlauf des Studiums entnehmen Sie bitte dem jeweiligen Studienplan (Anlage zur Studienordnung). Bitte beachten Sie diesen rechtlichen Hinweis. Angaben zum Raum und Zeitpunkt der einzelnen Lehrveranstaltungen entnehmen Sie bitte dem aktuellen Vorlesungsverzeichnis.

Fachinformationen zu Lernen in kognitiven Systemen im Studiengang Master Informatik 2013
Fachnummer182
Prüfungsnummer2200443
FakultätFakultät für Informatik und Automatisierung
Fachgebietsnummer 2233 (Neuroinformatik und Kognitive Robotik)
Fachverantwortliche(r)Prof. Dr. Horst-Michael Groß
TurnusSommersemester
Sprachedeutsch
Leistungspunkte
Präsenzstudium (h)
Selbststudium (h)
VerpflichtungPflicht
Abschlusskeiner
Details zum Abschluss

mPL 30 min, im Modul kognitive Robotik

max. Teilnehmerzahl
Vorkenntnisse

Vorlesung Neuroinformatik

Lernergebnisse

In der Vorlesung "Lernen in Kognitiven Systemen" lernen die Studierenden aufbauend auf der Vorlesung „Neuroinformatik und Maschinelles Lernen” die konzeptionellen, methodischen und algorithmischen Grundlagen des Maschinellen Lernens zum Erwerb komplexer Verhaltensleistungen in kognitiven Systemen (Autonome Systeme, Roboter, Prozessteuerungen, Spiele) durch Lernen aus Erfahrungen kennen. Sie verstehen die grundsätzliche Herangehensweise dieser Form des Wissenserwerbs, der Generierung von handlungsorientiertem Wissen aus Beobachtungen und Erfahrungen. Die Studierenden lernen die wesentlichen Konzepte, Lösungsansätze sowie Modellierungs- und Implementierungstechniken beim Einsatz von Verfahren des Reinforcement Learnings und dessen Spielarten kennen. Sie sind in der Lage, praxisorientierte Fragestellungen aus dem o. g. Problemkreis zu analysieren, durch Anwendung des behandelten Methodenspektrums auf Fragestellungen aus den behandelten Bereichen neue Lösungskonzepte zu entwerfen und algorithmisch umzusetzen sowie bestehende Lösungen zu bewerten. Vor- und Nachteile der Komponenten und Verfahren im Kontext praktischer Anwendungen sind den Studierenden bekannt.

Inhalt

Die Lehrveranstaltung vermittelt das erforderliche Methodenspektrum aus theoretischen Grundkenntnissen und praktischen Fähigkeiten zum Verständnis, zur Implementierung und zur Anwendung neuronaler und probabilistischer Techniken des Erwerbs von Handlungswissen durch Lernen aus evaluativ bewerteten Erfahrungsbeispielen. Sie vermittelt sowohl Faktenwissen, begriffliches und algorithmisches Wissen aus folgenden Themenkomplexen:

  • Begriffliche Grundlagen: Verhalten; Agent; Zweck und Bedeutung von Lernprozessen; Stability-Plasticity Dilemma; Exploration-Exploitation Dilemma
  • Reinforcement Learning (RL): Grundidee des RL; General RL-Task; Schwache und starke RL-Verfahren, RL als Markov Decision Process (MDP); Basiskomponenten eines RL-Agenten; Value/Action-Value Iteration und das Bellman´sche Optimalitätsprinzip; Q-Learning, Boltzmann-Aktionsauswahl; SARSA-Learning; On-policy und off-policy Verfahren; Eligibility Traces; RL und teilweise Beobachtbarkeit; Lösungsansätze zur Behandlung von POMDP
  • Neuronale Umsetzung von RL-Agenten: Value Approximation am Beispiel TD-Gammon; NFQ-Verfahren; ADHDP-Verfahren; Grundidee von Policy Search Algorithmen
  • Deep Reinforcement Learning (DRL) als Form des End-to-End Learnings: Atari Deep RL; AlphaGo
  • Learning Classifier Systems (LCS)
  • Imitation Learning
  • Multi-Agenten Systeme (MAS); Motivation und Arten von Multi-Agentensystemen; Konzepte zur Koordinierung von Agenten; Koordination mittels W-Lernen
  • Exemplarische Software-Implementierungen von RL-Verfahren für Navigationsaufgaben, Spiele, Prozesssteuerungen

 

Im Rahmen des Pflichtpraktikums sollen in C++ oder Python eigene Plugins zur Anwendung des Reinforcement Learnings am Beispiel der Roboternavigation im Simulator erstellt und experimentell untersucht werden.

 

Medienformen

Präsenzvorlesung mit Powerpoint, Arbeitsblätter zur Vorlesung, Übungsaufgaben, Videos, Python Apps, studentische Demo-Programme, e-Learning mittels „Jupyter Notebook”

Literatur

- Sutton, R., Barto, A. Reinforcement Learning – An Introduction. MIT Press 1998

- Bishop, Ch.: Pattern Recognition and Machine Learning, Springer 2006

- Alpaydin, Ethem: Maschinelles Lernen, Oldenbourg Verlag 2008

- Murphy, K. : Machine Learning – A Probabilistic Perspective, MIT Press 2012

- Goodfellow, I. et al.: Deep Learning, MIT Press 2016

Lehrevaluation

Pflichtevaluation:

Freiwillige Evaluation:

SS 2010 (Vorlesung)

SS 2011 (Vorlesung)

SS 2012 (Vorlesung)

SS 2014 (Vorlesung)

SS 2015 (Vorlesung)

SS 2016 (Vorlesung)

Hospitation:

Informationen und Handreichungen zur Pflege von Modul- und Fachbeschreibungen durch den Modul- oder Fachverantwortlichen finden Sie auf den Infoseiten zum Modulkatalog.