SEMINT1 - Selbstorganisation aktivierbarer dynamischer Raum- und Formrepräsentation durch SEnso Motorische INTeraktion


 

Ziel dieses Projektes ist die Weiterentwicklung und Konkretisierung eines alternativen Ansatzes zur visuellen Szeneninterpretation und der Nachweis seiner Anwendbarkeit auf Probleme der Steuerung mobiler, autonom operierender Roboter.

Im Mittelpunkt stehen dabei biologisch inspirierte bzw. motivierbare Mechanismen, mit denen eine interne Raum- und Forminterpretation aus der sensomotorischen Interaktion mit der Umwelt herausgebildet werden kann.

Dabei wird der Erkennungsvorgang als interne Simulation einer Menge eigener Aktionen und Vorhersage ihrer Konsequenzen in der gegebenen Situation betrachtet. Die Aktionen charakterisieren die sensorischen Situationen, in denen sich das System befindet. Gleichzeitig können aus den vielen beschreibenden Aktionen diejenigen zur Ausführung ausgewählt werden, die einen positiven Effekt entsprechend der Zielfunktion des Systems haben.

Voraussetzung für die Vorhersage von Handlungskonsequenzen ist dabei, daß das System über ein internes Modell der Zusammenhänge zwischen verschiedenen Datemströmen verfügt. Dazu werden nach unseren Modellvorstellungen Informationen aus sensorischen Quellen (z.B. visuelle, taktile) und Informationen über den internen Systemzustand (z.B. im Augenblick ausgeführte Bewegungen) im assoziativen Cortex nach einigen Stufen der komplexen unimodalen Verarbeitung zusammengeführt. Dort wird die häufige gleichzeitige oder in fester zeitlicher Relation auftretende Aktivierung von Neuronen detektiert. Solche festen Zusammenhänge deuten auf Gesetzmäßigkeiten der physikalischen Welt, die in das " Weltmodell " aufgenommen werden.

Hypothesenbildung kann als Anwendung detektierter Koinzidenzen auf reale Daten oder andere Hypothesen verstanden werden. Ihr Mechanismus ist die Kopplung oder Rückkopplung zwischen unterschiedlichen oder gleichen Datenströmen über detektierte Koinzidenzen in Form von adaptiven Wichtungen.