• IT-Karriere:
  • Services:

Alexa und Google Assistant: Kein Zugriff auf unsere Emotionen

Wütend, krank oder traurig: Durch unsere Stimme bekommen Sprachassistenten mehr Informationen als nur den Sprachbefehl. Forschern ist es gelungen, die Emotionen aus Audioaufnahmen zu filtern - die Spracherkennung leidet allerdings darunter.

Artikel veröffentlicht am ,
Nicht nur Emojis, auch die Stimme verrät Emotionen.
Nicht nur Emojis, auch die Stimme verrät Emotionen. (Bild: Alexas_Fotos)

Mit unserer Stimme transportieren wir nicht nur Inhalt, sondern über verschiedene Tonlagen auch Emotionen. Beispielweise kann die Stimmlage unser Selbstvertrauen, Stressniveau, die körperliche Verfassung sowie unser Alter und unser Geschlecht offenbaren. Diese Emotionen interessieren auch die Hersteller von Sprachassistenten, die unsere Sprachbefehle mittels künstlicher Intelligenz (KI) in der Cloud auswerten oder von Menschen mithören lassen. Forschern am Imperial College London ist es nun gelungen, diese nonverbalen Emotionen mittels künstlicher Intelligenz zu maskieren, damit sie von Sprachassistenten nicht erfasst werden können. Zuerst hatte das Onlinemagazin Vice berichtet.

Stellenmarkt
  1. über duerenhoff GmbH, Ingolstadt
  2. KfW Bankengruppe, Frankfurt am Main (Home-Office möglich)

Mit unserer Stimme können wir nonverbal subtile Gefühle vermitteln von Ekstase bis hin zu Qualen, Erregung und Ekel. Bereits im März 2017 hatte Amazon einen Patentantrag gestellt, nach welchem Alexa aus der Stimme des Nutzers den Gesundheitszustand ableiten soll. So soll die Sprachassistentin beispielsweise Erkältungskrankheiten oder eine depressive Stimmung detektieren können und dem Nutzer vorschlagen, passende Medikamente zu bestellen oder Werbebotschaften anzusagen.

Eine emotionserkennende KI könnte die "persönlichen Präferenzen und emotionalen Zustände der Menschen bestimmen", sagte die leitende Forscherin Ranya Aloufi dem Onlinemagazin Vice, "und kann daher ihre Privatsphäre erheblich beeinträchtigen". Um den Sprachassistenten bedienen zu können, ohne seinen emotionalen Zustand preisgeben zu müssen, haben die Forscher Sprachaufnahmen von mehreren Sprechern gesammelt, analysiert und die erkannten emotionalen Merkmale aus den Rohdaten extrahiert. Letzten Endes generierten sie mit einem Sprachsynthesizer eine normalisierte Sprachausgabe, die anschließend an Emotionserkennungs- und Spracherkennungsalgorithmen weitergeleitet wurden. Laut den Forschern lassen sich mit dieser Methode die identifizierten Emotionen um 96 Prozent reduzieren. Allerdings sinkt dadurch die Worterkennung um 35 Prozent. Letzeres wurde mit Googles Speech-to-Text API geprüft.

"Die Benutzer sollten informiert und sensibilisiert werden, wie diese Systeme ihre Aufzeichnungen verwenden und analysieren, damit sie in der Lage sind, fundierte Entscheidungen über die Platzierung dieser Geräte in ihrem Haushalt oder ihre Interaktion mit diesen Geräten zu treffen", sagte Aloufi. Es sei dringend notwendig, Techniken zum Schutz der Privatsphäre und des emotionalen Zustandes der Nutzer einzusetzen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Mobile-Angebote
  1. (u. a. Apple iPhone 11 Pro Max 256GB 6,5 Zoll Super Retina XDR OLED für 929,98€)
  2. 149,90€ (Bestpreis!)
  3. 214,90€ (Bestpreis!)
  4. (u. a. moto g8 power 64GB 6,4 Zoll Max Vision HD+ für 159,99€)

Hotohori 27. Aug 2019

Statt dem Nutzer Produkte anzudrehen je nach emotionalem Zustand wäre es sinniger wenn...


Folgen Sie uns
       


Xbox Series S ausgepackt

Wir packen beide Konsolen aus und zeigen den Lieferumfang.

Xbox Series S ausgepackt Video aufrufen
    •  /