Anzahl der Treffer: 452
Erstellt: Mon, 12 Apr 2021 14:24:36 +0200 in 0.0248 sec


Seichter, Daniel; Lewandowski, Benjamin; Höchemer, Dominik; Wengefeld, Tim; Groß, Horst-Michael;
Multi-task deep learning for depth-based person perception in mobile robotics. - In: IEEE Xplore digital library. - New York, NY : IEEE, ISSN 2473-2001, (2021), S. 10497-10504

https://doi.org/10.1109/IROS45743.2020.9340870
Wengefeld, Tim; Lewandowski, Benjamin; Seichter, Daniel; Pfennig, Lennard; Müller, Steffen; Groß, Horst-Michael;
Real-time person orientation estimation and tracking using colored point clouds. - In: Robotics and autonomous systems : international journal.. - Amsterdam [u.a.] : Elsevier, ISSN 1872-793X, Bd. 135 (2021), 103665, S. 1-13

Robustly estimating the orientations of people is a crucial precondition for a wide range of applications. Especially for autonomous systems operating in populated environments, the orientation of a person can give valuable information to increase their acceptance. Given peoples orientations, mobile systems can apply navigation strategies which take peoples proxemics into account or approach them in a human like manner to perform human robot interaction (HRI) tasks. In this paper, we present an approach for person orientation estimation based on computationally efficient features extracted from colored point clouds, formerly used for a two-class person attribute classification. The classification approach has been extended to the continuous domain while treating the problem of orientation estimation in real time. Furthermore, we present an approach for tracking estimated orientations over time using a Bayesian filter. We will show that tracking can increase the accuracy of orientations by up to 3.69˚ on a dataset recorded with a mobile robot. Best results on this highly challenging dataset are achieved with a regression approach for orientation estimation in combination with tracking. The mean angular error of just 16.49˚ proofs the applicability in real-world scenarios.



https://doi.org/10.1016/j.robot.2020.103665
Westhoven, Martin; Grinten, Tim van der;
Communicating robotic help requests : effects of eye-expressions, LED-lights and polite language. - In: i-com : journal of interactive media.. - Berlin : De Gruyter, ISSN 2196-6826, Bd. 19 (2020), 2, S. 153-167

https://doi.org/10.1515/icom-2020-0013
Sesselmann, Maximilian; Stricker, Ronny; Naber, Thorsten; Schelle, Steffen;
Automatic detection and georeferencing of road damage from a mobile mapping systems imagery with the help of deep learning :
Automatische Detektion und objektscharfe Georeferenzierung von Fahrbahnschäden aus Bilddaten eines Mobile-Mapping-Systems mithilfe von Deep Learning. - In: GIS.science. - Berlin : Wichmann, ISSN 1869-9391, Bd. 15 (2020), 1, S. 18-30

Lembach, Johann; Stricker, Ronny; Groß, Horst-Michael;
Efficient implementation of regional mutual information for the registration of road images. - In: 2020 Tenth International Conference on Image Processing Theory, Tools and Applications (IPTA) : 2020-11-09, 2020-11-12, Paris, France.. - [Piscataway, NJ] : IEEE, (2020), insges. 6 S.

https://doi.org/10.1109/IPTA50016.2020.9286718
Trinh, Thanh Q.; Vorndran, Alexander; Schütz, Benjamin; Jäschke, Bianca; Mayfarth, Anke; Scheidig, Andrea; Groß, Horst-Michael;
Autonomous mobile gait training robot for orthopedic rehabilitation in a clinical environment. - In: Robots with heart, mind, and soul : the 29th IEEE International Conference on Robot and Human Interactive Communication : 31 August-04 September 2020.. - [Piscataway, NJ] : IEEE, (2020), S. 580-587

https://doi.org/10.1109/RO-MAN47096.2020.9223482
Lewandowski, Benjamin; Wengefeld, Tim; Müller, Sabine; Jenny, Mathias; Glende, Sebastian; Schröter, Christof; Bley, Andreas; Groß, Horst-Michael;
Socially compliant human-robot interaction for autonomous scanning tasks in supermarket environments. - In: Robots with heart, mind, and soul : the 29th IEEE International Conference on Robot and Human Interactive Communication : 31 August-04 September 2020.. - [Piscataway, NJ] : IEEE, (2020), S. 363-370

https://doi.org/10.1109/RO-MAN47096.2020.9223568
Wengefeld, Tim; Höchemer, Dominik; Lewandowski, Benjamin; Köhler, Mona; Beer, Manuel; Groß, Horst-Michael;
A laser projection system for robot intention communication and human robot interaction. - In: Robots with heart, mind, and soul : the 29th IEEE International Conference on Robot and Human Interactive Communication : 31 August-04 September 2020.. - [Piscataway, NJ] : IEEE, (2020), S. 259-265

https://doi.org/10.1109/RO-MAN47096.2020.9223517
Eisenbach, Markus;
Personenwiedererkennung mittels maschineller Lernverfahren für öffentliche Einsatzumgebungen. - Ilmenau : Universitätsverlag Ilmenau, 2020. - 1 Online-Ressource (xix, 523 Seiten).
Technische Universität Ilmenau, Dissertation 2019

Die erscheinungsbasierte Personenwiedererkennung in öffentlichen Einsatzumgebungen ist eines der schwierigsten, noch ungelösten Probleme der Bildverarbeitung. Viele Teilprobleme können nur gelöst werden, wenn Methoden des maschinellen Lernens mit Methoden der Bildverarbeitung kombiniert werden. In dieser Arbeit werden maschinelle Lernverfahren eingesetzt, um alle Abarbeitungsschritte einer erscheinungsbasierten Personenwiedererkennung zu verbessern: Mithilfe von Convolutional Neural Networks werden erscheinungsbasierte Merkmale gelernt, die eine Wiedererkennung auf menschlichem Niveau ermöglichen. Für die Generierung des Templates zur Beschreibung der Zielperson wird durch Einsatz maschineller Lernverfahren eine automatische Auswahl personenspezifischer, diskriminativer Merkmale getroffen. Durch eine gelernte Metrik können beim Vergleich von Merkmalsvektoren szenariospezifische Umwelteinflüsse kompensiert werden. Eine Fusion komplementärer Merkmale auf Score Level steigert die Wiedererkennungsleistung deutlich. Dies wird vor allem durch eine gelernte Gewichtung der Merkmale erreicht. Das entwickelte Verfahren wird exemplarisch anhand zweier Einsatzszenarien - Videoüberwachung und Robotik - evaluiert. Bei der Videoüberwachung ermöglicht die Wiedererkennung von Personen ein kameraübergreifendes Tracking. Dies hilft menschlichen Operateuren, den Aufenthaltsort einer gesuchten Person in kurzer Zeit zu ermitteln. Durch einen mobilen Serviceroboter kann der aktuelle Nutzer anhand einer erscheinungsbasierten Wiedererkennung identifiziert werden. Dies hilft dem Roboter bei der Erfüllung von Aufgaben, bei denen er den Nutzer lotsen oder verfolgen muss. Die Qualität der erscheinungsbasierten Personenwiedererkennung wird in dieser Arbeit anhand von zwölf Kriterien charakterisiert, die einen Vergleich mit biometrischen Verfahren ermöglichen. Durch den Einsatz maschineller Lernverfahren wird bei der erscheinungsbasierten Personenwiedererkennung in den betrachteten unüberwachten, öffentlichen Einsatzfeldern eine Erkennungsleistung erzielt, die sich mit biometrischen Verfahren messen kann.



https://doi.org/10.22032/dbt.45621
Grinten, Tim van der; Müller, Steffen; Westhoven, Martin; Wischniewski, Sascha; Scheidig, Andrea; Groß, Horst-Michael;
Designing an expressive head for a help requesting socially assistive robot. - In: Human-friendly robotics 2019. - Cham : Springer, (2020), S. 88-102

In this paper, we present the developments regarding an expressive robot head for our socially assistive mobile robot HERA, which among other things is serving as an autonomous delivery system in public buildings. One aspect of that task is contacting and interacting with unconcerned people in order get help when doors are to open or an elevator has to be used. We designed and tested a robot head comprising a pan-tilt unit, 3D-printed shells, animated eyes displayed on two LCD-screens, and three arrays of RGB-LEDs for communicating internal robot states and attracting potential helpers interest. An online-study was performed to compare variations of eye-expression and LED lighting. Data was extracted from the answers of 139 participants. Statistical analysis showed significant differences in identification performance for our intended eye-expressions, perceived politeness, help intentions, and hedonic user experience.