Versuch einer Theorie für computerlesbare Gefühle

Während die Probandin die Fragen von Frau Schneider über sich ergehen lässt, zeichnen ein Mikrofon und eine Tiefenkamera ihre Antworten, vor allem aber ihre Reaktionen, auf: Wo schaut sie hin, wie bewegt sie Kopf und Oberkörper, welche Mienen zieht sie?

Stellenmarkt
  1. Informatiker (w/m/d) für elektronische Formularverarbeitung
    Stadt Erlangen, Erlangen
  2. Softwareentwickler C# / .NET (m/w/d)
    IS Software GmbH, Regensburg
Detailsuche

Allein für die Augen haben die Forscher vier Kanäle reserviert: Sind sie offen oder schließt die Probandin sie? Wohin schaut sie: nach links oder rechts, nach oben oder unten? Auch das übrige Gesicht wird beobachtet, das Spiel der Brauen oder des Mundes, ob sie lächelt oder die Mundwinkel nach unten wandern.

Dann erfasst das System die Haltung des Oberkörpers: Ist er er nach vorn gebeugt oder nach hinten, aufrecht oder krumm? Was macht sie mit ihren Armen? Daraus lässt sich schließen, wie engagiert die Probandin dem Gespräch folgt. Die gesprochene Antwort wird ebenfalls erfasst: Was sagt sie? Wie ist die Sprachmelodie? "Aber wir fokussieren uns auf die nonverbalen Signale, also wie sie reagiert", sagt Gebhard.

Was bedeutet ein Lachen?

Ziel ist es, ein computergestütztes System zu entwickeln, das Gefühle eines Menschen simulieren kann, die mit dem individuellen Situationserleben einhergehen. "Der erste Ansatz, der auch der etablierte ist, ist, dass wir die Gefühle, die wir im Gesicht und in der Stimme erkennen, auch als interne Gefühle annehmen. Das heißt, wenn ich lächele, attributiere ich diese Situation als gute Situation", sagt Gebhard. Aber wie oft überspielen wir Unsicherheit oder Ärger mit einem Lächeln? "Also, wenn ich im Gesicht lache, bedeutet das nicht, dass ich mich freue. Das ist aber Stand der Dinge in der Informatik. Die Informatiker sind gute Mustererkenner. Aber das Modell hintendran fehlt noch: Was bedeutet dann das Lachen eigentlich?", sagt Gebhard.

Golem Akademie
  1. ITIL 4® Foundation: virtueller Zwei-Tage-Workshop
    16.–17. Dezember 2021, virtuell
  2. PowerShell Praxisworkshop: virtueller Vier-Tage-Workshop
    20.–23. Dezember 2021, virtuell
Weitere IT-Trainings

Außerdem funktioniert ein solches System nur, wenn es auch Daten gibt. Was aber, wenn ein Proband keine erfassbaren Regungen zeigt? Auch das hätten sie schon gehabt, erzählt Gebhard: Ein Proband in Frankreich habe erst gar nicht auf den Avatar reagiert - und dann den Bildschirm aus dem Fenster geworfen. "Das ist das Schlimmste für einen Informatiker, weil er dann nichts messen kann."

Gesichtsausdruck und Sprachmelodie zu betrachten, zeige nur die sogenannten kommunikativen Emotionen, erklärt Gebhard. Die Mimik mit der Gefühlslage gleichzusetzen, greift also zu kurz. "Es gibt Gefühle, die kann ich kommunizieren, und es gibt interne Gefühle, die sagen etwas aus über mich selber und über die Situation. Die Gefühle über mich selber nennen wir strukturelle Gefühle, die über die Situation situationale Gefühle."

Wie lassen sich Gefühle erkennen?

Wie aber lassen sich solche internen Gefühle von außen erkennen? Im Rahmen des Projekts Empathische Trainingsbegleiter für den Bewerbungsprozess (EmpaT) haben die DFKI-Forscher zusammen mit Forschern der Universität Augsburg um Elisabeth André ein erweitertes Computermodell erzeugt, das die Emotionsregulation von Gefühlen mit einbezieht. Das System erkennt vier Regulationsstrategien und kann daran bewerten, wie engagiert die Person an dem Gespräch teilnimmt - oder besser: "Welchen Hinweis geben all diese sozialen Signale auf mögliche Regulationsprozesse, die beim Menschen stattfinden", sagt Gebhard.

Das System erfasst, dass da eventuell eine Regulation stattfindet - also dass die Person etwas überspielt. "Das haben wir in ein kognitives Computermodell für Gefühle eingebaut, in dem wir eine Situationsrepräsentation drin haben, wie ein Mensch eine Situation bewerten kann", sagt Gebhard - wobei die Betonung auf "kann" liege. "Damit der Computer versteht, was in einer Person passiert, müsste das Programm in Dialog mit ihr treten, um herauszufinden, was sie da gedacht hat."

Das macht es nicht.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Emotionen erkennen: Ein Lächeln macht noch keinen FrohsinnComputer simuliert Emotionszustände 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


Aktuell auf der Startseite von Golem.de
Kanadische Polizei
Diebe nutzen Apples Airtags zum Tracking von Luxuswagen

Autodiebe in Kanada nutzen offenbar Apples Airtags, um Fahrzeuge heimlich zu orten.

Kanadische Polizei: Diebe nutzen Apples Airtags zum Tracking von Luxuswagen
Artikel
  1. Blender Foundation: Blender 3.0 ist da
    Blender Foundation
    Blender 3.0 ist da

    Die freie 3D-Software Blender bekommt ein Update - wir haben es uns angesehen.
    Von Martin Wolf

  2. 4 Motoren und 4-Rad-Lenkung: Tesla aktualisiert Cybertruck
    4 Motoren und 4-Rad-Lenkung
    Tesla aktualisiert Cybertruck

    Tesla-Chef Elon Musk hat einige Änderungen am Cybertruck angekündigt. Der elektrische Pick-up-Truck wird mit vier Motoren ausgerüstet.

  3. DSIRF: Hackerbehörde Zitis prüft österreichischen Staatstrojaner
    DSIRF
    Hackerbehörde Zitis prüft österreichischen Staatstrojaner

    Deutsche Behörden sind mit mehreren Staatstrojaner-Herstellern im Gespräch. Nun ist ein weiterer mit Sitz in Wien bekanntgeworden.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Saturn-Advent: SanDisk Ultra 3D 1 TB 77€ • KFA2 Geforce RTX 3070 OC 8GB 1.019€ • Alternate (u. a. AKRacing Core SX 269,98€) • Sharkoon PureWriter RGB 44,90€ • Corsair K70 RGB MK.2 139,99€ • 2x Canton Plus GX.3 49€ • Gaming-Monitore günstiger (u. a. Samsung G3 27" 144Hz 219€) [Werbung]
    •  /