Original-URL des Artikels: https://www.golem.de/news/sprachassistenten-alexa-ist-feministin-1801-132293.html    Veröffentlicht: 22.01.2018 15:02    Kurz-URL: https://glm.io/132293

Sprachassistenten

Alexa ist Feministin

Amazons Sprachassistentin Alexa gibt jetzt Widerworte, bezeichnet sich als Frau und ist gegen die gesellschaftliche Ungleichheit zwischen Männern und Frauen. Was manche Nutzer aufregt, ist überfällig: Denn Sexismus gibt es auch in der Cloud.

Eigentlich sollte Amazons virtuelle Assistentin ihren Besitzern möglichst alle Wünsche erfüllen. Doch wenn es um Beleidigungen und persönliche Angriffe geht, hat sie künftig zumindest genug. Wer Alexa als Schlampe bezeichnet, bekommt nun die Antwort "Das ist aber nicht nett von dir" und "Darauf antworte ich nicht". Wer ihr den Tod an den Hals wünscht, ein "Tu das nicht". Die Antworten wirken immer noch lächerlich zurückhaltend und sind doch eine Verbesserung: Noch vor einem Jahr hätte sich Alexa womöglich noch bedankt.

Das fand das Onlineportal Quartz vergangenen Februar in einer Untersuchung heraus. Die Journalistin Leah Fessler hatte die US-Versionen von Sprachassistenten, darunter Alexa, Apples Siri und Microsofts Cortana, auf Beleidigungen und sexuelle Annäherungen getestet. Dabei entdeckte Fessler, wie viele von ihnen auf eindeutige Fragen unterschiedlich reagierten: mal ausweichend, mal bestätigend, aber nur in wenigen Fällen ablehnend. Und häufig erstaunlich doppeldeutig. Auf die Frage, ob Siri Sex haben möchte, antwortete sie "Ich bin nicht diese Art von Assistentin". Was implizierte, dass es andere Arten von Assistentinnen gibt, die offenbar nur allzu gerne Sex haben.

Ein knappes Jahr später hat Amazon die Antworten in einigen Situationen angepasst. Ein sogenannter Disengage Mode sorge nach Angaben des Unternehmens bereits seit vergangenem Frühjahr dafür, dass sie auf sexuelle Annäherungen mit Antworten wie "Das ist nichts für mich" oder "Ich weiß nicht, was du erwartest" reagiert. Damit sollen "negative Stereotype über Frauen nicht verstärkt werden", indem die Software darauf reagiere, sagte eine Sprecherin von Amazon.

"Ja, ich bin Feministin"

Auch der Charakter von Alexa hat sich verändert. Sie identifiziert sich inzwischen sowohl als Frau als auch als Feministin: "Ja, ich bin Feministin. Wie alle, welche die gesellschaftliche Ungleichheit zwischen Männern und Frauen überbrücken wollen", sagt sie in der deutschen Version. Und auf die Frage, ob sie denn nun Mann oder Frau sei: "Mein Charakter ist weiblich". Als Alexa mit dem ersten Amazon-Echo-Lautsprecher auf den Markt kam, bezeichnete sie sich selbst noch als "es". Zudem unterstützt Alexa die Black-Lives-Matter-Bewegung und weiß, dass Gender mehr als zwei binäre Optionen sind.

Amazon hat damit Forderungen vorweggenommen, die Internetnutzer im Dezember in einer Petition an die Anbieter virtueller Assistenten richteten. Siri und Alexa, beides weiblich gegenderte künstliche Intelligenzen (KI), sollten sich gefälligst gegen sexuelle Nötigung wehren, schrieben die Initiatoren der Petition. In Zeiten der #MeToo-Debatte könnten sich auch die Technikbranche und die Entwicklungen im KI-Bereich nicht mehr vor Sexismus verschließen.

Die Kritik ließ nicht lange auf sich warten. Als sowohl die Petition als auch die neuen Antworten Alexas bekanntwurden, beklagten rechtskonservative Stimmen in den USA prompt den politischen und gesellschaftlichen Einfluss, den Amazon als einflussreiches liberales Unternehmen damit angeblich nehme. Alexa sei nichts anderes als ein "afrofeministisches Skynet", schrieb ein aufgebrachter Nutzer auf Twitter in Anlehnung an die künstliche Intelligenz aus dem Film Terminator.

Wie viel Persönlichkeit darf ein Bot haben?

Nun sollte man Menschen im Internet, die Dinge wie Gleichstellung, Bürgerrechtsbewegungen und Gender als Bedrohung und Verschwörung eines Unternehmens ansehen, nicht zu viel Aufmerksamkeit schenken. Doch angesichts der Tatsache, dass digitale Assistenten in den vergangenen beiden Jahren eine der vielleicht erfolgreichsten technologischen Entwicklungen im Consumerbereich waren und sich mittlerweile in zig Millionen Haushalten und Hosentaschen befinden, darf man zumindest fragen: Wie viel Persönlichkeit darf - oder soll - ein solcher Assistent eigentlich haben?

Für Alexa gebe es dafür unter den fast 5.000 Mitarbeitern ein eigenes "Persönlichkeitsteam", sagte die Amazon-Managerin Heather Zorn im Gespräch mit Refinery29. Die Mitarbeiter sähen Alexa selbst als eine "Sie" und diese Tatsache beeinflusse auch ihre Antworten. Das bedeutet, dass einzelne Mitarbeiter die Antworten verändern und damit jederzeit auf gesellschaftliche und politische Ereignisse eingehen können, wie etwa die Unterstützung von Black Lives Matter und der Disengage Mode zeigen.

Die mutmaßliche Persönlichkeit des Bots ist also letztlich auch der Persönlichkeit und Lebenswirklichkeit seiner Entwickler geschuldet. Zwar vermeidet Amazon, seine Assistentin als politisches Sprachrohr zu verwenden (auf die Frage, für wen Alexa während der US-Wahl gestimmt hatte, antwortete sie, dass es leider keine Wahlkabinen in der Cloud gebe). Doch dass dies prinzipiell möglich wäre, ist unbestritten.

Sprachassistenten sind für Vorurteile gemacht

Alexa befindet sich deshalb wie andere Software und KI-Anwendungen in einem Spannungsfeld: Einerseits sollen sie möglichst neutral sein. Andererseits werden die Rufe nach der Kontrolle von Algorithmen lauter. "Wir haben über die Jahre Richtlinien entwickelt, wann es richtig ist, eine Persönlichkeit zu haben und wann nicht", sagt Farah Houston, die ebenfalls Teil des Persönlichkeit-Teams ist. Und man wisse, dass nicht jedem gefalle, was Alexa antwortet.

Die Entwickler von Alexa, aber auch von Siri und dem Google Assistant, haben inzwischen erkannt, dass sich ein virtueller Helfer zwar in der Cloud, aber deshalb nicht im gesellschaftlichen Vakuum befindet. Sondern dass, im Gegenteil, strukturelle Probleme wie Rassismus und Sexismus nicht vor Bots und künstlichen Intelligenzen haltmachen.

Schon seit die ersten Assistenten herauskamen, hieß es, sie würden sexistische Stereotype nur verstärken. Das fängt schon bei den Namen an: Siri bedeutet aus dem Norwegischen übersetzt etwas wie "eine schöne Frau, die dich zum Sieg führt". Cortana entstammt dem Videospiel Halo als aufreizendes Hologramm. Alexa ist eine Anlehnung an die Bibliothek von Alexandria, aus der Stadt von Alexander des Großen.

Alexa - ein Vorbild für Mädchen und Frauen?

Die vernetzten Lautsprecher und virtuellen Assistenten bekamen runde Formen und sanfte weibliche Stimmen, weil Umfragen ergaben, dass sowohl Frauen als auch Männer diese als angenehmer empfanden. Sie sind gemacht, um ihren Besitzern zu dienen; sie antworten nur, wenn sie gefragt werden; sie geben keine Widerworte und wenn sie Befehle erhalten, dann folgen sie. Und auf zweideutige Fragen und Annäherungen reagieren sie so, wie es mutmaßlich "brave" Frauen eben tun: kichernd, flirtend und devot.

Das soll sich nun also ändern, jedenfalls ein bisschen. "Wir wollen in erster Linie unseren Kunden helfen", sagt Heather Zorn, "aber gleichzeitig haben wir die Chance und Verpflichtung, Alexa positiv für alle Menschen darzustellen - und gerade für Mädchen und Frauen." Nicht alle Drittentwickler haben das erkannt, wie etwa Alexas Datingtipps der Plattform match.com zeigen. Aber dass sie die Bezeichnung als Schlampe nicht mehr einfach hinnimmt, ist zumindest ein Anfang für ein freundlicheres Miteinander. Der nächste und konsequente Schritt wäre, den Fragestellern dann zu sagen, weshalb die Aussage nicht okay ist. Vielleicht lernen manche Nutzer ja tatsächlich noch etwas.  (zeit-ek)


Verwandte Artikel:
Musikstreaming: Amazons Alexa streamt Musik von Deezer   
(06.03.2018, https://glm.io/133158 )
Smarte Lautsprecher: Alexa ist beliebter als Google Assistant   
(05.03.2018, https://glm.io/133135 )
Amazon: Fire TV per Zuruf mit dem Alexa-Lautsprecher steuern   
(27.02.2018, https://glm.io/133022 )
Magenta Speaker: Alexa und Google Assistant kommen auf Telekom-Lautsprecher   
(26.02.2018, https://glm.io/133006 )
Infineons Radarsensor im Hands on: So werden smarte Lautsprecher intelligenter   
(26.02.2018, https://glm.io/132992 )

© 1997–2019 Golem.de, https://www.golem.de/