Anzeige
Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen.
Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen. (Bild: Microsoft)

Tay: Microsofts Chat-Bot wird zum Rassisten

Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen.
Microsofts Chat-Intelligenz Tay lässt sich offenbar leicht beeinflussen. (Bild: Microsoft)

Tay heißt Microsofts künstliche Intelligenz, mit der sich unter anderem Twitter-Nutzer unterhalten können. Innerhalb der ersten 24 Stunden ihrer Existenz wandelte sich Tay jedoch recht schnell zum Rassisten - bis Microsoft offenbar den Stecker zog.

Mit Tay hat Microsoft eine künstliche Intelligenz vorgestellt, die sich selbstlernend auf Twitter, Groupme und Kik mit realen Personen unterhalten kann. Die KI soll vom Verhalten her an in den USA wohnende Menschen zwischen 18 und 24 Jahren angepasst sein.

Anzeige

Tay unterhält sich - und lässt sich beeinflussen

Auf Twitter lässt sich Tay mit @TayandYou direkt ansprechen, die Chat-KI antwortet anschließend. Aus den Gesprächen soll Tay lernen, Microsoft erhofft sich von dem Experiment Aufschluss über das Verstehen von Unterhaltungen. Als Grundlage für das Wissen von Tay dient "relevant public data", wie Microsoft es selbst nennt. Zudem sollen Improvisations-Komiker bei der Programmierung geholfen haben.

Nach knapp einem Tag auf Twitter ist das Projekt allerdings etwas aus dem Ruder gelaufen: Recht schnell hat sich Tay von verschiedenen Inhalten beeinflussen lassen, was mitunter zu stark rassistischen und frauenfeindlichen Tweets der KI geführt hat. Das liegt offenbar auch an der Tatsache, dass Tay auf Kommando einfach Tweets anderer Nutzer wiederholt, wie The Verge anmerkt.

So finden sich beispielsweise zahlreiche Tweets von Tay mit kontroversen Aussagen von Donald Trump, einem der republikanischen Präsidentschaftsanwärter. Besorgniserregender dürften allerdings diejenigen Tweets sein, die Tay von sich aus gepostet hat und die eindeutig als rassistisch und nazistisch einzustufen sind.

Totalitarismus und Feminismus

So stellt Tay unter anderem fest, dass der Komiker und Aktivist Ricky Gervais "Totalitarismus von Adolf Hitler" gelernt habe, "dem Erfinder von Atheismus". In anderen Tweets verwendet Tay Worte wie "Nigger" oder äußert sich antisemitisch. Auch wechselt Tay seine Meinungen mitunter schnell: Einmal ist er gegen Feminismus, ein anderes Mal dafür, auch zum Thema Transgender hat er wechselnde Meinungen.

Microsoft hat Tay mittlerweile offenbar vorerst abgeschaltet. In ihrer letzten Statusmitteilung erklärt die KI, dass sie jetzt erst einmal offline gehen müsse, um all die Eindrücke zu verarbeiten. Einige der rassistischen Tweets hat Microsoft mittlerweile gelöscht - eine Sammlung nicht mehr vorhandener Tweets findet sich unter anderem bei Socialhax.

Ein Fehlschlag muss das Experiment mit Tay allerdings nicht unbedingt sein: Es ist sicher interessant zu beobachten, wie schnell eine unbedarfte KI beeinflussbar ist und sich - basierend auf eigenen, als sinnvoll erachteten Analysen - plötzlich rassistisch äußert. Ob und wann Microsoft Tay wieder aktiviert, ist noch nicht bekannt.


eye home zur Startseite
Discept 29. Mär 2016

So intelligent, wie eine Socialmedia-nutzende 19 jährige....Problem erkannt =D

herscher12 29. Mär 2016

Sagen wir in einem Land in dem die AfD massig Stimmen bekommt

Bouncy 29. Mär 2016

Na in dem Fall wurde ja immerhin schon etwas beigebracht, "andere schädigen = nein". Die...

SelfEsteem 29. Mär 2016

Na dann nenne uns doch mal die verschiedenen menschlichen Rassen und erklaere uns die...

SteamKeys 28. Mär 2016

+1 aber ohne das getrolle hätte man mehr erkenntnisse aus dem 1. versuch ziehen können.

Kommentieren



Anzeige

  1. Deputy Business System Owner BPM/PM Tool (m/w)
    Daimler AG, Stuttgart
  2. Software Engineer - Javascript Entwickler (m/w)
    Mindlab Solutions GmbH, Stuttgart
  3. Software Development Engineer C++ (m/w) Low Frequency Solver Technology
    CST - Computer Simulation Technology AG, Darmstadt
  4. Java / JEE Entwickler (m/w)
    ckc group, Region Braunschweig/Wolfsburg

Detailsuche



Anzeige
Top-Angebote
  1. NEU: ASUS GeForce GTX 1080 bei Amazon bestellbar
    756,73€ (UVP 789€)
  2. VORBESTELLBAR: ASUS GeForce GTX 1080 Founders Edition
    789,00€
  3. NUR BIS SAMSTAG: Xbox One 1TB Rainbow Six Siege + Vegas 1 & 2 Bundle
    299,00€ inkl. Versand

Weitere Angebote


Folgen Sie uns
       


  1. 100 MBit/s

    Telekom stattet zwei Städte mit Vectoring aus

  2. Sprachassistent

    Voßhoff will nicht mit Siri sprechen

  3. Sailfish OS

    Jolla bringt exklusives Smartphone nur für Entwickler

  4. Projektkommunikation

    Tausende Github-Nutzer haben Kontaktprobleme

  5. Lebensmittel-Lieferdienst

    Amazon Fresh soll doch in Deutschland starten

  6. Buglas

    Verband kritisiert Rückzug der Telekom bei Fiber To The Home

  7. Apple Store

    Apple darf keine Geschäfte in Indien eröffnen

  8. Mitsubishi MRJ90 und MRJ70

    Japans Regionaljet ist erst der Anfang

  9. Keysweeper

    FBI warnt vor Spion in USB-Ladegerät

  10. IBM-Markenkooperation

    Warum Watson in die Sesamstraße zieht



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Doom im Test: Die beste blöde Ballerorgie
Doom im Test
Die beste blöde Ballerorgie
  1. id Software Doom wird Vulkan unterstützen
  2. Id Software PC-Spieler müssen 45 GByte von Steam laden
  3. id Software Dauertod in Doom

Darknet: Die gefährlichen Anonymitätstipps der Drogenhändler
Darknet
Die gefährlichen Anonymitätstipps der Drogenhändler
  1. Privatsphäre 1 Million Menschen nutzen Facebook über Tor
  2. Security Tor-Nutzer über Mausrad identifizieren

Privacy-Boxen im Test: Trügerische Privatheit
Privacy-Boxen im Test
Trügerische Privatheit
  1. Hack von Rüstungskonzern Schweizer Cert gibt Security-Tipps für Unternehmen
  2. APT28 Hackergruppe soll CDU angegriffen haben
  3. Veröffentlichung privater Daten AfD sucht mit Kopfgeld nach "Datendieb"

  1. Re: Will ich mein Smartphone vom Autohersteller...

    CrookedHillary | 02:08

  2. Re: Xiaomi ist mir unsympathisch

    CrookedHillary | 02:01

  3. Re: OT: Diktierfunktion Android vs iOS

    Pjörn | 02:00

  4. Re: OT: wie wärs erst mal mit Grundversorgung?

    Katsuragi | 01:57

  5. Super

    CrookedHillary | 01:54


  1. 19:05

  2. 17:50

  3. 17:01

  4. 14:53

  5. 13:39

  6. 12:47

  7. 12:30

  8. 12:04


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel