Machine Learning: MIT nimmt Datensatz mit rassistischen Begriffen offline

Die 80 Millionen kategorisierten Bilder sind automatisiert erstellt worden. KI-Systeme haben mit dem MIT-Datensatz Beleidigungen erlernt.

Artikel veröffentlicht am ,
Das Stata Center ist Sitz des CSAIL.
Das Stata Center ist Sitz des CSAIL. (Bild: Tony Webster, flickr.com/CC-BY 2.0)

Das prestigeträchtige Computer Science & Artificial Intelligence Lab (CSAIL) des MIT (Massachusetts Institute of Technology) hat seinen für Machine-Learning-Aufgaben gedachten Datensatz Tiny Images mit etwa 80 Millionen Einzelbildern in mehr als 75.000 Kategorien offline genommen. Wie das Institut auf der Tiny-Images-Webseite mitteilt, sei diese Entscheidung dauerhaft und der Datensatz damit künftig gar nicht mehr verfügbar. Als Grund dafür wird angegeben, dass der Datensatz "abfällige Begriffe als Kategorien und beleidigende Bilder" enthalte.

Stellenmarkt
  1. IT Service Owner (m/f/x) MakerSpace
    UnternehmerTUM GmbH, Garching
  2. Anwendungs- und Kundenbetreuung im Bereich Bürgerservice (m/w/d)
    Kommunales Rechenzentrum Minden-Ravensberg/Lippe, Lemgo
Detailsuche

Das MIT zieht damit die Konsequenzen aus Recherchen des Magazins The Register sowie einer Forschungsarbeit (PDF) von Vinay Prabhu, Forscher bei dem Startup UnifyID, sowie Abeba Birhane, die am University College Dublin promoviert. Die Untersuchung beschäftigt sich mit verschiedenen Datensätzen, die für Machine-Learning-Modelle und Forschungen genutzt werden. Der Fokus liegt dabei einerseits auf den enthaltenen Bildern selbst, die etwa pornografische Inhalte enthalten, sowie auf den Kategorien und den damit assoziierten Bildern.

Um Machine-Learning-Modelle zu trainieren und damit letztlich neue und unbekannte Inhalte zu erkennen, ist es wichtig, dass der zugrundeliegende Datensatz möglichst divers ist und vor allem eine gute Kategorisierung aufweist. In den vergangenen Jahren gab es aber immer wieder Fälle, bei denen derartige Systeme wohl wegen der schlechten Ausgangslage sehr schlecht funktioniert und Diskriminierung verfestigt haben. Im Zuge der aktuellen Black-Lives-Matter-Proteste haben deshalb Microsoft, IBM und Amazon ihre Arbeiten an solchen Systemen eingestellt oder zumindest ausgesetzt.

Abwertende Begriffe als Datengrundlage

Wie das Forscherteam nun zeigt, reproduziert auch der Tiny-Images-Datensatz des MIT bestehende Diskriminierungen wie Rassismus und Sexismus und verwendet etwa Ethnophaulismen als Kategorien, also abwertende Bezeichnungen für Menschengruppen. Laut dem MIT ist die Erstellung des Datensatzes im Jahr 2006 automatisiert umgesetzt worden, indem Worte aus der Wordnet-Sammlung als Kategorien kopiert worden waren und anschließend eine Online-Bildersuche mit diesen umgesetzt wurde.

Golem Karrierewelt
  1. Cinema 4D Grundlagen: virtueller Drei-Tage-Workshop
    09.-11.01.2023, Virtuell
  2. Go für Einsteiger: virtueller Zwei-Tages-Workshop
    23./24.01.2023, Virtuell
Weitere IT-Trainings

Eine menschliche Prüfung der Kategorien oder damit assoziierter Bilder hat jedoch nicht stattgefunden. Machine-Learning-Modelle, die den Tiny-Image-Datensatz genutzt haben, haben damit auch dessen diskriminierende Kategorien erlernt. Der Datensatz ist aber sehr groß und die Bilder sind mit 32 x 32 Pixel sehr klein, "daher garantiert eine manuelle Überprüfung, selbst wenn dies möglich ist, nicht, dass anstößige Bilder vollständig entfernt werden können", heißt es auf der Webseite des MIT. Als Reaktion bleibe nur, den Datensatz nicht mehr anzubieten.

Die MIT-Forscher schreiben: "Vorurteile, beleidigende und nachteilige Bilder und abfällige Begriffe entfremden einen wichtigen Teil unserer Gemeinschaft - genau diejenigen, die wir einbeziehen wollen. Dies trägt auch zu schädlichen Verzerrungen in KI-Systemen bei, die auf solchen Daten trainiert werden. Darüber hinaus schadet das Vorhandensein solcher nachteiligen Bilder den Bemühungen, eine Kultur der Inklusivität in der Computer-Vision-Community zu fördern. Dies ist äußerst bedauerlich und widerspricht den Werten, die wir vertreten wollen."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


n0x30n 02. Jul 2020

Es kommt immer darauf an, was man damit trainieren will. Will man zum Beispiel eine KI...

Palerider 02. Jul 2020

Eine KI mit 'shit in' kann das perfekte Vorurteil werden... eine der großen Gefahren wenn...

jankapunkt 02. Jul 2020

Am besten wir unterdrücken alle negativen emotionen dann gibt es auch keine...



Aktuell auf der Startseite von Golem.de
Bundesarbeitsgericht
Arbeitgeber müssen Arbeitszeiten zwingend erfassen

Das vollständige Urteil des BAG zur Arbeitszeiterfassung liegt nun vor. Diese muss zwingend erfolgen, aber nicht unbedingt elektronisch.

Bundesarbeitsgericht: Arbeitgeber müssen Arbeitszeiten zwingend erfassen
Artikel
  1. Cyberkriminalität: Jeder vierte Jugendliche ist ein Internettroll
    Cyberkriminalität
    Jeder vierte Jugendliche ist ein Internettroll

    Einer Umfrage zufolge ist bedenkliches bis illegales Verhalten von Jugendlichen im Internet zur Normalität geworden. In Deutschland ist der Anteil sehr hoch.

  2. I am Jesus Christ angespielt: Der Jesus-Simulator lässt uns vom Glauben abfallen
    I am Jesus Christ angespielt
    Der Jesus-Simulator lässt uns vom Glauben abfallen

    Kein Scherz, keine geplante Gotteslästerung: In I am Jesus Christ treten wir als Heiland an. Golem.de hat den kostenlosen Prolog ausprobiert.
    Von Peter Steinlechner

  3. ChatGPT: Der geniale Bösewicht-Chatbot mit Stackoverflow-Bann
    ChatGPT
    Der geniale Bösewicht-Chatbot mit Stackoverflow-Bann

    ChatGPT scheint zu gut, um wahr zu sein. Der Chatbot wird von Nutzern an die (legalen) Grenzen getrieben.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • NBB: Samsung Odyssey G5 WQHD/165 Hz 203,89€ u. Odyssey G9 49"/DQHD/240Hz 849,90€ • ViewSonic VX3258 WQHD/144 Hz 229,90€ • Elgato Cam Link Pro 146,89€ • Mindstar: Alphacool Eiswolf 2 AiO 360 199€ • Alternate: Tt eSPORTS Ventus X Plus 31,98€ • 4x Philips Hue White Ambiance 49,99€ [Werbung]
    •  /