2 min read

R4R auf dem IEEE International Symposium on Robotic and Sensors Environments (IEEE ROSE 2024) in Chemnitz

R4R auf dem IEEE International Symposium on Robotic and Sensors Environments (IEEE ROSE 2024) in Chemnitz
Die Teilnehmer:innen der ROSE 2024 Foto: IEEE ROSE 2024

Die ROSE fand in diesem Jahr am 20. und 21. Juni in Chemnitz statt. Die Leitung hatte Prof. Olfa Kanoun (TU Chemnitz, Mess- und Sensortechnik) inne.
Die IEEE ROSE ist eine internationale Konferenz, bei der Forscher:innen aus verschiedensten Ländern ihre aktuellen Forschungen vorstellen. In diesem Jahr war die ROSE den Schwerpunkten “Sensoriksysteme und Technologien für die Robotik und Industrieautomation sowie deren Auswirkungen auf die autonome Robotik und die Entwicklung intelligenter Systeme und Anwendungen“ gewidmet.

Seitens Ready4Robots nahmen Prof. Sebastian Zug und Martin Plank von der TU Bergakademie Freiberg teil.
Prof. Zug präsentierte das aktuelle Forschungspaper zum Thema "Using Unsupervised Learning to Explore Robot-Pedestrian Interactions in Urban Environments". Die Forscher untersuchten anhand realer Robotereinsatzdaten von Roboter Claudi in Freiberg das Passantenverhalten.
Wie nah kommen die Passant:innen dem Roboter?
Wie verhalten sie sich ihm gegenüber?
Welche Umgebungsparameter beeinflussen die Interaktion?
Dies galt es herauszufinden und zwar mit den "Augen" von Claudi und nicht mit den Augen der Forscher.
Berücksichtigt wurden neben der Minimal-, Maximal- und Durchschnittsdistanz zwischen Roboter und Passant:innen auch die Minimal-, Maximal- und Durchschnittsdistanz zur nächsten Kreuzung. Weitere untersuchte Parameter waren die Translation und Rotation des Roboters, die geschätzte Geschwindigkeit der Passant:innen und der Winkel zwischen den geschätzten Bewegungsrichtungen der Passant:innen und des Roboters (praktisch ein Kollisionswinkel).
Die Studie identifizierte eine Lücke in den datengesteuerten Ansätzen für roboterzentrierte Fußgängerinteraktionen und schlägt eine entsprechende Pipeline vor.
Im Ergebnis zeigte sich, dass es notwendig ist, Interaktionsrepräsentationen mit Kontextinformationen anzureichern, um feinkörnige Analysen und Schlussfolgerungen zu ermöglichen. Es unterstreicht zudem die Notwendigkeit, der Erweiterung des Datensatzes und der Einbeziehung zusätzlicher Kontextfaktoren, um das Situationsbewusstsein des Roboters und die Interaktionsqualität zu verbessern.

Das vorgestellte Paper finden Sie im Menüpunkt Publikationen.