Zum Hauptinhalt Zur Navigation

Roboter lernen den Cocktailparty-Effekt

Europäische Forscher geben Robotern die Fähigkeit zur selektiven Wahrnehmung. Roboter sollen in Zukunft Teil unserer Umwelt werden. Dazu gehört, dass sie in der Lage sind, genauso mit Menschen zu kommunizieren, wie Menschen es untereinander tun. Im Rahmen eines europäischen Forschungsprojektes wollen Wissenschaftler aus Deutschland, Frankreich, der Schweiz und Tschechien Robotern eine wichtige Fähigkeit für die Kommunikation in Gesellschaft beibringen: den Cocktailparty-Effekt.
/ Werner Pluta
26 Kommentare News folgen (öffnet im neuen Fenster)

Zu den Voraussetzungen für die Integration von Robotern in unseren Alltag gehört, dass sie angemessen mit den Menschen kommunizieren können. Das mag bei einem Dialog noch ganz gut funktionieren. Schwierig wird es aber bei Gesprächen in Gesellschaft. Menschen, die sich auf einer größeren Veranstaltung, etwa auf einer Party, miteinander unterhalten, schaffen es, die Geräuschkulisse um sich herum so zu unterdrücken, dass sie sich auf den Gesprächspartner konzentrieren können. Diese Form der selektiven Wahrnehmung - auch Cocktailparty-Effekt (öffnet im neuen Fenster) genannt - wollen Wissenschaftler Robotern beibringen.

Audiovisuelle Fähigkeiten für Roboter

Humanoids with auditory and visual abilities in populated spaces(öffnet im neuen Fenster) , kurz Humavips, heißt das von der Europäischen Union geförderte Projekt, in dessen Rahmen Roboter gesellschaftsfähig gemacht werden sollen. Ziel sei, humanoide Roboter mit den audiovisuellen Fähigkeiten für Erkundung, Erkennen und Interaktion auszustatten, heißt es in der Projektbeschreibung.

Viele Roboter nutzten auditive oder visuelle Wahrnehmung, allerdings meist für ganz andere Zwecke, sagte Projektleiter Radu Horaud vom französischen Institut National de Recherche en Informatique et Automatique (Inria) dem Technologiemagazin Wired(öffnet im neuen Fenster) . Das Sehen werde meist für die Orientierung des Roboters eingesetzt oder um ein Objekt zu erkennen. Das Hören diene dem Verstehen von Sprache. In dem Humavips-Projekt hingegen geht es darum, Sehen und Hören in Kombination einzusetzen, um die Wahrnehmung auf ein Gegenüber zu konzentrieren und Hintergrundgeräusche auszublenden.

Nach Abschluss des Projektes Humavips soll ein Roboter in der Lage sein, sich in einer Gesellschaft zurechtzufinden, einzelne Menschen oder kleine Gruppen auszumachen, sich zu ihnen zu gesellen und mit ihnen ein Gespräch zu beginnen, wobei er auch ein angemessenes Benehmen an den Tag legen sollte.

Bescheideneres Ziel

Horaud setzt sein Ziel indes bescheidener: "Wenn ich am Ende des Projektes einen Roboter habe, der in einem Raum mit, sagen wir, vier oder fünf Personen die Übersicht behält, wie viele Personen sprechen und wie viele nicht, der die menschlichen Sprachäußerungen von anderen Schallquellen unterscheiden kann und der in der Lage ist, eine dieser Personen auszuwählen, zu ihr hinzugehen und ihre Aufmerksamkeit zu erregen, dann ist ist das schon sehr ehrgeizig." Mehr, sagt er, sei in einem einzigen Projekt nicht zu schaffen.

Die Systeme, die im Rahmen des Projektes entwickelt werden, sollen an dem vom französischen Robotikunternehmen Aldebaran Robotics entwickelten Roboter Nao(öffnet im neuen Fenster) getestet werden. Die dort entwickelte Software soll unter einer quelloffenen Lizenz stehen, damit sie auch nach Ende von Humavips genutzt und weiterentwickelt werden kann.

Beteiligt an Humavips sind unter der Leitung von Inria die Universität in Bielefeld, die Technische Universität in Prag, das Schweizer Forschungsinstitut Idiap sowie das Unternehmen Aldebaran. Die Laufzeit des Projektes, das Anfang des Monats gestartet ist, beträgt drei Jahre.


Relevante Themen