Original-URL des Artikels: https://www.golem.de/news/robotik-emotionen-zeigen-mit-smileys-1205-91662.html    Veröffentlicht: 09.05.2012 10:29    Kurz-URL: https://glm.io/91662

Robotik

Emotionen zeigen mit Smileys

Wenn Roboter mit Menschen interagieren, müssen sie Emotionen erkennen und zeigen. Längst lassen sich Gesichtsausdrücke in Textform wiedergeben - als Emoticons. Sie lassen sich auf die Robotik übertragen.

Im Film und in Science-Fiction gibt es sie längst, Roboter, die Emotionen zeigen und dadurch ihre Intelligenz zum Ausdruck bringen: Marvin, der depressive Roboter aus den Romanen von Douglas Adams, oder Sonny aus dem Film I, Robot, der sich Gedanken über seinen eigenen Tod macht und durch Augenzwinkern kommuniziert.



Fernab ihrer industriellen Kollegen wird es in der Zukunft tatsächlich Roboter geben, die direkt mit Menschen interagieren. Zu denen wollen wir eine Beziehung aufbauen, sie einschätzen können, sagte Alexandra Deschamps-Sonsino auf der Next Berlin 2012. Dazu muss der Roboter die Gefühle des Menschen erkennen und verstehen können - und umgekehrt.

Emoticons für Roboter

Längst sind viele Emotionen auf einfache Formeln heruntergebrochen worden. Diese Formeln werden etwa in Cartoons und animierten Filmen angewendet, in denen Gesichtsausdrücke die Befindlichkeiten der Charaktere untermauern. Dutzende Smileys zeigen Emotionen in Textform. Sie sind unerlässlich bei der Kommunikation, wenn Tonfall oder Augenkontakt zum Gegenüber fehlen. Nutzen Roboter diese Emoticons in ihren Gesichtsausdrücken, können Menschen sie besser einschätzen.

Umgekehrt müssen Roboter aber auch lernen, Menschen zu verstehen. Sind wir überwiegend glücklich und weinen dann einen halben Tag, müsse unser mechanisches Gegenüber erkennen, dass dies ein wichtiger Moment sei, sagte Deschamps-Sonsino. Aus dieser emotionalen Ausnahmesituation lässt sich ein Algorithmus ableiten: "Wenn die Summe der positiven Emotionen über einen bestimmten Zeitraum größer ist als die Summe der negativen Emotionen, dann hat der Benutzer gute Laune."

Gefahr durch Fehlinterpretation

Menschliche Intelligenz, die unter anderem durch Sprache, Selbsterkenntnis, Introspektion, Rationalität, die Fähigkeit der Problemlösung oder abstraktes Denken definiert ist, kann zu einem gewissen Grad mit Algorithmen dargestellt werden. Dazu müssen aber zunächst Daten gesammelt werden.



Welche Gefahren die inkorrekte Analyse gesammelter Daten birgt, zeigt ein Beispiel aus dem EU-finanzierten Forschungsprogramm Indect: Ein Mann wird beobachtet, der vor einem Auto nach seinem Schlüssel sucht. Dieses ungewöhnliche Verhalten - von einer Drohne oder einer Überwachungskamera aufgenommen - wird von der Software als potenzieller Autodiebstahl interpretiert.

Roboter altern sanft

Gegenwärtig können Roboter zu einem gewissen Grad die Menschen und generell Kontexte verstehen. Sie lernen zu vergessen. Und sie können in "Würde altern", sich also sanft ihrem menschlichen Gegenüber anpassen.

Es ist nur noch eine Frage der Zeit, bis Roboter etwa Aufgaben in der Altenpflege übernehmen, glauben Forscher. Damit die Menschen einen mechanischen Pfleger akzeptieren und sich ihm anvertrauen, braucht dieser den Forschern zufolge eine vertrauenswürdige und menschliche Persönlichkeit.

Emys kopiert menschliche Mimik

Das EU-finanzierte Projekt Lirec, eine Abkürzug für "Living with Robots and Interactive Companions" (auf Deutsch etwa: "Leben mit Robotern und interaktiven Begleitern"), versucht deshalb seit über vier Jahren, Emotionen zu kategorisieren, zu analysieren und auf Roboter zu übertragen.

Auf der Cebit 2012 haben die Lirec-Forscher den Roboter Emys vorgestellt, dessen Gesicht die Mimik seines menschlichen Gegenübers widerspiegeln soll. Deschamps-Sonsino arbeitet an dem Projekt mit. Emys habe Probleme damit gehabt, ihren Gesichtsausdruck korrekt zu analysieren, sagt sie, denn das Verhältnis zwischen der Größe ihres Mundes und ihren Augen sei ungewöhnlich. Erst als sie übertrieben lächelte, konnte die Gesichtserkennungssoftware das als gute Laune erkennen.

Darin sieht Deschamps-Sonsino eine weitere mögliche Gefahr: Um mit Robotern zu kommunizieren, müssten wir uns ihnen anpassen und würden selbst immer mehr zu Robotern.  (jt)


Verwandte Artikel:
Roboter: Qbo kann Spiegelbild von zweitem Qbo unterscheiden   
(03.01.2012, https://glm.io/88773 )
Lovotics: Wenn der Roboter eifersüchtig wird   
(30.06.2011, https://glm.io/84619 )
Roboter: Nao wird emotional   
(09.08.2010, https://glm.io/77082 )
Microsoft: Verbesserte künstliche Intelligenz in der Azure-Cloud   
(02.03.2018, https://glm.io/133117 )
Soziales Netzwerk: Facebook bietet erweiterte Gesichtserkennung für Fotos an   
(28.02.2018, https://glm.io/133055 )

© 1997–2020 Golem.de, https://www.golem.de/