Alexa und Google Assistant: Kein Zugriff auf unsere Emotionen
Wütend, krank oder traurig: Durch unsere Stimme bekommen Sprachassistenten mehr Informationen als nur den Sprachbefehl. Forschern ist es gelungen, die Emotionen aus Audioaufnahmen zu filtern - die Spracherkennung leidet allerdings darunter.

Mit unserer Stimme transportieren wir nicht nur Inhalt, sondern über verschiedene Tonlagen auch Emotionen. Beispielweise kann die Stimmlage unser Selbstvertrauen, Stressniveau, die körperliche Verfassung sowie unser Alter und unser Geschlecht offenbaren. Diese Emotionen interessieren auch die Hersteller von Sprachassistenten, die unsere Sprachbefehle mittels künstlicher Intelligenz (KI) in der Cloud auswerten oder von Menschen mithören lassen. Forschern am Imperial College London ist es nun gelungen, diese nonverbalen Emotionen mittels künstlicher Intelligenz zu maskieren, damit sie von Sprachassistenten nicht erfasst werden können. Zuerst hatte das Onlinemagazin Vice berichtet.
Mit unserer Stimme können wir nonverbal subtile Gefühle vermitteln von Ekstase bis hin zu Qualen, Erregung und Ekel. Bereits im März 2017 hatte Amazon einen Patentantrag gestellt, nach welchem Alexa aus der Stimme des Nutzers den Gesundheitszustand ableiten soll. So soll die Sprachassistentin beispielsweise Erkältungskrankheiten oder eine depressive Stimmung detektieren können und dem Nutzer vorschlagen, passende Medikamente zu bestellen oder Werbebotschaften anzusagen.
Eine emotionserkennende KI könnte die "persönlichen Präferenzen und emotionalen Zustände der Menschen bestimmen", sagte die leitende Forscherin Ranya Aloufi dem Onlinemagazin Vice, "und kann daher ihre Privatsphäre erheblich beeinträchtigen". Um den Sprachassistenten bedienen zu können, ohne seinen emotionalen Zustand preisgeben zu müssen, haben die Forscher Sprachaufnahmen von mehreren Sprechern gesammelt, analysiert und die erkannten emotionalen Merkmale aus den Rohdaten extrahiert. Letzten Endes generierten sie mit einem Sprachsynthesizer eine normalisierte Sprachausgabe, die anschließend an Emotionserkennungs- und Spracherkennungsalgorithmen weitergeleitet wurden. Laut den Forschern lassen sich mit dieser Methode die identifizierten Emotionen um 96 Prozent reduzieren. Allerdings sinkt dadurch die Worterkennung um 35 Prozent. Letzeres wurde mit Googles Speech-to-Text API geprüft.
"Die Benutzer sollten informiert und sensibilisiert werden, wie diese Systeme ihre Aufzeichnungen verwenden und analysieren, damit sie in der Lage sind, fundierte Entscheidungen über die Platzierung dieser Geräte in ihrem Haushalt oder ihre Interaktion mit diesen Geräten zu treffen", sagte Aloufi. Es sei dringend notwendig, Techniken zum Schutz der Privatsphäre und des emotionalen Zustandes der Nutzer einzusetzen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Statt dem Nutzer Produkte anzudrehen je nach emotionalem Zustand wäre es sinniger wenn...