Technische Universität Ilmenau

Learning in Cognitve Systems - Modultafeln of TU Ilmenau

The module lists provide information on the degree programmes offered by the TU Ilmenau.

Please refer to the respective study and examination rules and regulations for the legally binding curricula (Annex Curriculum).

You can find all details on planned lectures and classes in the electronic university catalogue.

Information and guidance on the maintenance of module descriptions by the module officers are provided at Module maintenance.

Please send information on missing or incorrect module descriptions directly to modulkatalog@tu-ilmenau.de.

module properties Learning in Cognitve Systems in degree program Master Biomedizinische Technik 2014
module number182
examination number2200516
departmentDepartment of Computer Science and Automation
ID of group 2233 (Neuroinformatics and Cognitive Robotics)
module leaderProf. Dr. Horst-Michael Groß
term summer term only
languageDeutsch
credit points4
on-campus program (h)34
self-study (h)86
obligationelective module
examalternative pass-fail certificate
details of the certificate
signup details for alternative examinationsDie Anmeldung zur alternativen semesterbegleitenden Abschlussleistung erfolgt über das Prüfungsverwaltungssystem (thoska) außerhalb des zentralen Prüfungsanmeldezeitraumes. Die früheste Anmeldung ist generell ca. 2-3 Wochen nach Semesterbeginn möglich. Der späteste Zeitpunkt für die An- oder Abmeldung von dieser konkreten Abschlussleistung ist festgelegt auf den (falls keine Angabe, erscheint dies in Kürze):
  • signup begins: 05.11.2021
  • signup ends: 19.01.2022
  • resignation not after:
  • last modification of this information:
maximum number of participants
previous knowledge and experience

LV Neuroinformatik LV Angewandte NI

learning outcome

In der Vorlesung "Lernen in Kognitiven Systemen" lernen die Studierenden aufbauend auf der Vorlesung „Neuroinformatik und Maschinelles Lernen” die konzeptionellen, methodischen und algorithmischen Grundlagen des Maschinellen Lernens zum Erwerb komplexer Verhaltensleistungen in kognitiven Systemen (Autonome Systeme, Roboter, Prozessteuerungen, Spiele) durch Lernen aus Erfahrungen kennen. Sie verstehen die grundsätzliche Herangehensweise dieser Form des Wissenserwerbs, der Generierung von handlungsorientiertem Wissen aus Beobachtungen und Erfahrungen. Die Studierenden lernen die wesentlichen Konzepte, Lösungsansätze sowie Modellierungs- und Implementierungstechniken beim Einsatz von Verfahren des Reinforcement Learnings und dessen Spielarten kennen. Sie sind in der Lage, praxisorientierte Fragestellungen aus dem o. g. Problemkreis zu analysieren, durch Anwendung des behandelten Methodenspektrums auf Fragestellungen aus den behandelten Bereichen neue Lösungskonzepte zu entwerfen und algorithmisch umzusetzen sowie bestehende Lösungen zu bewerten. Vor- und Nachteile der Komponenten und Verfahren im Kontext praktischer Anwendungen sind den Studierenden bekannt.

content

Die Lehrveranstaltung vermittelt das erforderliche Methodenspektrum aus theoretischen Grundkenntnissen und praktischen Fähigkeiten zum Verständnis, zur Implementierung und zur Anwendung neuronaler und probabilistischer Techniken des Erwerbs von Handlungswissen durch Lernen aus evaluativ bewerteten Erfahrungsbeispielen. Sie vermittelt sowohl Faktenwissen, begriffliches und algorithmisches Wissen aus folgenden Themenkomplexen:

  • Begriffliche Grundlagen: Verhalten; Agent; Zweck und Bedeutung von Lernprozessen; Stability-Plasticity Dilemma; Exploration-Exploitation Dilemma
  • Reinforcement Learning (RL): Grundidee des RL; General RL-Task; Schwache und starke RL-Verfahren, RL als Markov Decision Process (MDP); Basiskomponenten eines RL-Agenten; Value/Action-Value Iteration und das Bellman´sche Optimalitätsprinzip; Q-Learning, Boltzmann-Aktionsauswahl; SARSA-Learning; On-policy und off-policy Verfahren; Eligibility Traces; RL und teilweise Beobachtbarkeit; Lösungsansätze zur Behandlung von POMDP
  • Neuronale Umsetzung von RL-Agenten: Value Approximation am Beispiel TD-Gammon; NFQ-Verfahren; ADHDP-Verfahren; Grundidee von Policy Search Algorithmen
  • Deep Reinforcement Learning (DRL) als Form des End-to-End Learnings: Atari Deep RL; AlphaGo
  • Learning Classifier Systems (LCS)
  • Multi-Agenten Systeme (MAS); Motivation und Arten von Multi-Agentensystemen; Konzepte zur Koordinierung von Agenten; Koordination mittels W-Lernen, Problem der Rewarddekomposition
  • Exemplarische Software-Implementierungen von RL-Verfahren für Navigationsaufgaben, Spiele, Prozesssteuerungen

 

Im Rahmen des Pflichtpraktikums (Teilleistung 2) sollen in C++ eigene Plugins zur Anwendung des Reinforcement Learnings am Beispiel der Roboternavigation im Simulator erstellt und experimentell untersucht werden. Neben den algorithmischen Umsetzungen werden auch ethische, soziale und rechtliche Aspekte beim Einsatz von Techniken des Maschinelles Lernens diskutiert.

 

media of instruction

Präsenzvorlesung mit Powerpoint, Lectures on demand mit Erläuterungsvideos zu Vorlesungs-, Übungs- und Praktikumsinhalten, Arbeitsblätter zur Vorlesung, Übungsaufgaben, Python Apps, studentische Demo-Programme, e-Learning mittels „Jupyter Notebook”

literature / references

- Sutton, R., Barto, A. Reinforcement Learning – An Introduction. MIT Press 1998

- Bishop, Ch.: Pattern Recognition and Machine Learning, Springer 2006

- Alpaydin, Ethem: Maschinelles Lernen, Oldenbourg Verlag 2008

- Murphy, K. : Machine Learning – A Probabilistic Perspective, MIT Press 2012

- Goodfellow, I. et al.: Deep Learning, MIT Press 2016

evaluation of teaching

Pflichtevaluation:

Freiwillige Evaluation:

SS 2010 (Vorlesung)

SS 2011 (Vorlesung)

SS 2012 (Vorlesung)

SS 2014 (Vorlesung)

SS 2015 (Vorlesung)

SS 2016 (Vorlesung)

SS 2018 (Vorlesung, Übung)

SS 2019 (Vorlesung, Übung)

Hospitation: