Tay: Microsofts Chat-Bot wird zum Rassisten

Tay heißt Microsofts künstliche Intelligenz, mit der sich unter anderem Twitter-Nutzer unterhalten können. Innerhalb der ersten 24 Stunden ihrer Existenz wandelte sich Tay jedoch recht schnell zum Rassisten - bis Microsoft offenbar den Stecker zog.

Artikel veröffentlicht am ,
Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen.
Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen. (Bild: Microsoft)

Mit Tay hat Microsoft eine künstliche Intelligenz vorgestellt, die sich selbstlernend auf Twitter, Groupme und Kik mit realen Personen unterhalten kann. Die KI soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren angepasst sein.

Tay unterhält sich - und lässt sich beeinflussen

Stellenmarkt
  1. Digitalkoordinator/in (w/m/d)
    Stadt Nürnberg, Nürnberg
  2. Fachinformatiker (w/m/d)
    IT-Servicezentrum der bayerischen Justiz, Nürnberg, München, Amberg/Oberpfalz
Detailsuche

Auf Twitter lässt sich Tay mit @TayandYou direkt ansprechen, die Chat-KI antwortet anschließend. Aus den Gesprächen soll Tay lernen, Microsoft erhofft sich von dem Experiment Aufschluss über das Verstehen von Unterhaltungen. Als Grundlage für das Wissen von Tay dient "relevant public data", wie Microsoft es selbst nennt. Zudem sollen Improvisations-Komiker bei der Programmierung geholfen haben.

Nach knapp einem Tag auf Twitter ist das Projekt allerdings etwas aus dem Ruder gelaufen: Recht schnell hat sich Tay von verschiedenen Inhalten beeinflussen lassen, was mitunter zu stark rassistischen und frauenfeindlichen Tweets der KI geführt hat. Das liegt offenbar auch an der Tatsache, dass Tay auf Kommando einfach Tweets anderer Nutzer wiederholt, wie The Verge anmerkt.

So finden sich beispielsweise zahlreiche Tweets von Tay mit kontroversen Aussagen von Donald Trump, einem der republikanischen Präsidentschaftsanwärter. Besorgniserregender dürften allerdings diejenigen Tweets sein, die Tay von sich aus gepostet hat und die eindeutig als rassistisch und nazistisch einzustufen sind.

Totalitarismus und Feminismus

Golem Karrierewelt
  1. Container Technologie: Docker und Kubernetes - Theorie und Praxis: virtueller Drei-Tage-Workshop
    14.-16.12.2022, virtuell
  2. Certified Network Defender (CND): virtueller Fünf-Tage-Workshop
    06.-10.02.2023, Virtuell
Weitere IT-Trainings

So stellt Tay unter anderem fest, dass der Komiker und Aktivist Ricky Gervais "Totalitarismus von Adolf Hitler" gelernt habe, "dem Erfinder von Atheismus". In anderen Tweets verwendet Tay Worte wie "Nigger" oder äußert sich antisemitisch. Auch wechselt Tay seine Meinungen mitunter schnell: Einmal ist er gegen Feminismus, ein anderes Mal dafür, auch zum Thema Transgender hat er wechselnde Meinungen.

Microsoft hat Tay mittlerweile offenbar vorerst abgeschaltet. In ihrer letzten Statusmitteilung erklärt die KI, dass sie jetzt erst einmal offline gehen müsse, um all die Eindrücke zu verarbeiten. Einige der rassistischen Tweets hat Microsoft mittlerweile gelöscht - eine Sammlung nicht mehr vorhandener Tweets findet sich unter anderem bei Socialhax.

Ein Fehlschlag muss das Experiment mit Tay allerdings nicht unbedingt sein: Es ist sicher interessant zu beobachten, wie schnell eine unbedarfte KI beeinflussbar ist und sich - basierend auf eigenen, als sinnvoll erachteten Analysen - plötzlich rassistisch äußert. Ob und wann Microsoft Tay wieder aktiviert, ist noch nicht bekannt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Discept 29. Mär 2016

So intelligent, wie eine Socialmedia-nutzende 19 jährige....Problem erkannt =D

herscher12 29. Mär 2016

Sagen wir in einem Land in dem die AfD massig Stimmen bekommt

Bouncy 29. Mär 2016

Na in dem Fall wurde ja immerhin schon etwas beigebracht, "andere schädigen = nein". Die...

SelfEsteem 29. Mär 2016

Na dann nenne uns doch mal die verschiedenen menschlichen Rassen und erklaere uns die...



Aktuell auf der Startseite von Golem.de
Sicherheit
FBI ist "zutiefst besorgt" über Apples neue Verschlüsselung

Das FBI könnte mit Apples Advanced Data Protection seinen wichtigsten Zugang zu iPhones verlieren. Doch dafür muss die Funktion von Nutzern aktiviert werden.

Sicherheit: FBI ist zutiefst besorgt über Apples neue Verschlüsselung
Artikel
  1. Open Data: GFF klagt gegen Bayern für freie Geodaten
    Open Data
    GFF klagt gegen Bayern für freie Geodaten

    Eine bayerische Behörde erstattete Anzeige gegen Journalisten und andere, die amtliche Geodaten veröffentlicht hatten. Die GFF klagt dagegen.

  2. Burning Shores: Horizon Forbidden West schickt Aloy nach Los Angeles
    Burning Shores
    Horizon Forbidden West schickt Aloy nach Los Angeles

    Der furiose Shooter Returnal erscheint für Windows-PC und für Horizon Forbidden West kommt eine handlungsbasierte Erweiterung.

  3. Phantom Liberty: In Cyberpunk 2077 kämpft ein weiterer Schauspieler
    Phantom Liberty
    In Cyberpunk 2077 kämpft ein weiterer Schauspieler

    Der von Keanu Reeves dargestellte Johnny Silverhand ist nicht der einzige Star: In der Erweiterung von Cyberpunk 2077 tritt Idris Elba auf.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Gaming-Monitore -37% • Asus RTX 4080 1.399€ • PS5 bestellbar • Gaming-Laptops & Desktop-PCs -29% • MindStar: Sapphire RX 6900 XT 799€ statt 1.192€, Apple iPad (2022) 256 GB 599€ statt 729€ • Samsung SSDs -28% • Logitech Mäuse, Tastaturen & Headsets -53% [Werbung]
    •  /