Stimmanalyse: Spotify soll die Emotionen der Nutzer nicht auswerten
Ein Patent erlaubt Spotify, Emotionen der Nutzer aus deren Stimme abzuleiten. Die Technik solle nicht eingesetzt werden, fordert eine Koalition.

Hunderte Künstler, Menschenrechtsgruppen und Akademiker haben Spotify aufgefordert, auf die Verwendung einer kürzlich patentierten Technik zu verzichten, mit der das Unternehmen seinen Nutzern Musikstücke auf Basis von deren Emotionen vorschlagen möchte. Die Emotionen sollen aus Gesprächen zwischen den Nutzern abgeleitet werden. Zuerst hatte das Onlinemagazin Motherboard berichtet.
Bereits seit mindestens 2018 arbeitet das schwedische Unternehmen an der Technik und hatte ein entsprechendes Patent beantragt, das im Januar 2021 genehmigt wurde. Mit einer Analyse der Stimme sollen Songs basierend auf dem "emotionalen Zustand, Geschlecht, Alter oder Akzent" vorgeschlagen werden.
Bei der Analyse soll auch das aktuelle soziale Umfeld miteinbezogen und entsprechende Musik gespielt werden. Als Beispiel nennt Spotify die Kategorien "alleine, kleine Gruppe, Party". Dabei sollen kontextuelle Hinweise wie "Intonation, Betonung, [und] Rhythmus" Hinweise darauf geben, ob eine Person "glücklich, wütend, traurig oder neutral" ist. Diese würden mit weiteren Informationen zusammengeführt, etwa den zuvor abgespielten Liedern.
"Es ist üblich, dass eine Media-Streaming-Anwendung Funktionen enthält, die einem Nutzer personalisierte Medienempfehlungen geben", schreibt Spotify in seinem Patentantrag, aus dem der Nachrichtensender BBC zitiert. Gleichzeitig sei man sich bewusst, dass die digitale Geschichte eines Menschen außerordentlich persönlich und sensibel sei. Bisher will Spotify die Technik jedoch nicht implementiert haben, wie das Unternehmen der Bürgerrechtsorganisation Access Now in einem Brief im April mitgeteilt hatte.
"Die Entscheidung, die Technologie zu patentieren, wurde von einer Reihe anderer Überlegungen beeinflusst, einschließlich unserer Verantwortung gegenüber unseren Nutzern und der Gesellschaft im Allgemeinen", erklärte Spotify. Weitere Kommentare gegenüber Motherboard lehnte es jedoch ab.
Spotify erhält "gefährliche Machtposition gegenüber dem Nutzer"
In ihrem Brief erklärte die Koalition aus Künstlern, Menschenrechtsgruppen und Akademikern, dass sie es zwar zu schätzen wüssten, dass Spotify die Technik derzeit nicht nutze, aber sie fragten sich, warum das Unternehmen überhaupt die Emotionserkennung erforschen würde. Diese habe sich obendrein bei zahlreichen Gelegenheiten als fehlerhaft erwiesen.
Das von Spotify patentierte Emotionserkennungssystem würde wahrscheinlich zu Manipulationen ohne Zustimmung der Nutzer, Diskriminierung und schädlichen Verletzungen der Privatsphäre führen, schreibt die Koalition in ihrem Brief. "Die Überwachung des emotionalen Zustands und die darauf basierenden Empfehlungen bringen das Unternehmen, das die Technologie einsetzt, in eine gefährliche Machtposition gegenüber dem Nutzer."
Zudem kritisierte die Koalition, dass "die Verwendung von künstlicher Intelligenz und Überwachung zur Empfehlung von Musik nur dazu dienen wird, die bestehenden Ungleichheiten in der Musikindustrie zu verschärfen. Musik sollte für die menschliche Verbindung gemacht werden, nicht um einem gewinnmaximierenden Algorithmus zu gefallen."
Im vergangenen Jahr hatte der Streamingdienst zudem eine Studie durchgeführt, die untersuchte, welche Persönlichkeitsmerkmale die musikalischen Vorlieben beeinflussen. "Personen, die eine hohe Gewissenhaftigkeit aufweisen, neigen dazu, ihr Musikhören auf ein engeres Zeitfenster am Tag zu konzentrieren", so das Fazit des Forschungs- und Entwicklungsteams von Spotify. "Selbst eingeschätzte Introvertierte hingegen tendierten dazu, tiefer in den Katalog eines Künstlers einzutauchen und mehr Tracks von jedem Künstler, den sie entdeckten, zu hören."
Auch Amazon hat einen Patentantrag gestellt
Neben individuellen und emotionsbasierten Musikvorschlägen könnte die Technik auch zu Werbezwecken verwendet werden. Bereits 2019 hatten Forscher am Imperial College London davor gewarnt, dass Sprachassistenten wie Amazons Alexa oder Google Assistant über die Stimme der Nutzer auch Zugriff auf deren Emotionen erlangen könnten. In einer Studie war es ihnen gelungen, die entsprechenden nonverbalen Emotionen mittels künstlicher Intelligenz zu maskieren, damit sie von Sprachassistenten nicht erfasst werden können.
Bereits im März 2017 hatte Amazon einen Patentantrag gestellt, nach welchem Alexa aus der Stimme des Nutzers den Gesundheitszustand ableiten soll. So soll die Sprachassistentin beispielsweise Erkältungskrankheiten oder eine depressive Stimmung detektieren können und dem Nutzer vorschlagen, passende Medikamente zu bestellen oder Werbebotschaften anzusagen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
+1, meine Offline Inhalte noch einmal komplett zu laden war gestern auch bei mir wieder...