• IT-Karriere:
  • Services:

Computer simuliert Emotionszustände

Stattdessen, sagt Gebhard, erstelle es "verschiedene Situationsmodelle, was in dem Menschen passieren könnte. Das heißt, das System baut sich - deshalb Simulation von Gefühlen und nicht Erkennen - mögliche interne virtuelle Situationen, wie es in dem anderen Menschen aussehen könnte, basierend auf einer ersten Annahme, wie ein Mensch das interpretieren könnte."

Stellenmarkt
  1. Bundeskriminalamt, Wiesbaden
  2. Erzbistum Köln, Köln

Das System beschränkt sich aber nicht nur auf eine Annahme, sondern dekliniert mehrere Ausgangssituationen mit den vier Regulationsregeln durch, die dann neue Situationen produzieren. Insgesamt erzeugt es so 64 Modelle, wie es in dem Menschen gerade aussehen könnte. Welche davon diejenige ist, die den tatsächlichen emotionalen Status des Probanden repräsentiert, lässt sich nur in der Rückkopplung mit diesem erfahren. Das System wählt die wahrscheinlichsten aus, die der Testperson dann zur Beurteilung vorgelegt werden sollen.

Das macht zum Beispiel der Emotionale mobile Assistent (Emma), eine von dem DFKI-Team entwickelte Smartphone-App, die die Wiedereingliederung von Burn-out-Patienen in den Berufsalltag überwacht. Der Nutzer bespricht am Abend mit dem Avatar, wie der Tag verlaufen ist. Emma versucht dann zu ergründen, wie es ihm geht. "Wir gehen davon aus, dass das Nonverbale reicht, um festzustellen: Ist das eine schwierige Situation?", erzählt Gebhard.

Der digitale Assistent gibt Hinweise

Was also tatsächlich in einer Person vorgeht - der Probandin, als die virtuelle Frau Schneider sie mit unangenehmen Fragen löchert, oder dem Patienten nach dem Arbeitstag -, das weiß nur die Person selbst - so sie sich selbst transparent genug ist. In dem Fall kann die Probandin Gebhard und seinen Forscherkollegen Rückmeldung geben, wie gut ihr System ist, oder der Patient, so er das will, seinem Arzt. Falls nicht, bekommen sie für sich zumindest einen Hinweis, zu überlegen, was in dem Moment in ihnen vorgegangen ist. Und damit hätte das Trainingssystem auf jeden Fall seinen Zweck erreicht.

Ein System, das einen Menschen beobachtet und dann seine Emotionen erkennt, hält Gebhard für unmöglich. Dazu seien die Menschen zu unterschiedlich. Im Umkehrschluss bedeutet das: Das System wird sich auch nicht für die Überwachung einsetzen lassen. Die Angst davor sei allerdings durchaus vorhanden, sagt Gebhard.

Er nimmt diese sehr ernst, hält jedoch dagegen: "Wenn man sich die Fahrassistenzsysteme ansieht, da gibt noch einige Hürden, die man überwinden muss. Der Freiheitsgrad, den eine soziale Kommunikation mit sich bringt, ist exponentiell komplexer. Da geht es ja nicht nur um links, rechts, bremsen und Gas geben, sondern da ist alles Mögliche involviert. Jeder Mensch ist unterschiedlich groß geworden, hat unterschiedliche Dinge erlebt. Daraus kann man schließen, dass jeder eine Situation vollkommen unterschiedlich interpretiert", resümiert er.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Versuch einer Theorie für computerlesbare Gefühle
  1.  
  2. 1
  3. 2
  4. 3


Anzeige
Top-Angebote
  1. 388,95€
  2. 242,72€ (Vergleichspreis 299€)
  3. ab 84,90€ auf Geizhals
  4. 86,51€ (Vergleichspreis 98,62€ + Lieferzeit, 103,78€ sofort verfügbar)

kazhar 16. Feb 2019

War auch meine erste Reaktion. Das Outfit passt nicht? Wofür ist die Bewerbung? Modeberater?

Citadelle 16. Feb 2019

Naja, Toaster kannst Du auch mit Auto, oder Zahnbürste ersetzen. Alles wird mal...


Folgen Sie uns
       


    •  /