Machine Learning: MIT nimmt Datensatz mit rassistischen Begriffen offline

Die 80 Millionen kategorisierten Bilder sind automatisiert erstellt worden. KI-Systeme haben mit dem MIT-Datensatz Beleidigungen erlernt.

Artikel veröffentlicht am ,
Das Stata Center ist Sitz des CSAIL.
Das Stata Center ist Sitz des CSAIL. (Bild: Tony Webster, flickr.com/CC-BY 2.0)

Das prestigeträchtige Computer Science & Artificial Intelligence Lab (CSAIL) des MIT (Massachusetts Institute of Technology) hat seinen für Machine-Learning-Aufgaben gedachten Datensatz Tiny Images mit etwa 80 Millionen Einzelbildern in mehr als 75.000 Kategorien offline genommen. Wie das Institut auf der Tiny-Images-Webseite mitteilt, sei diese Entscheidung dauerhaft und der Datensatz damit künftig gar nicht mehr verfügbar. Als Grund dafür wird angegeben, dass der Datensatz "abfällige Begriffe als Kategorien und beleidigende Bilder" enthalte.

Das MIT zieht damit die Konsequenzen aus Recherchen des Magazins The Register sowie einer Forschungsarbeit (PDF) von Vinay Prabhu, Forscher bei dem Startup UnifyID, sowie Abeba Birhane, die am University College Dublin promoviert. Die Untersuchung beschäftigt sich mit verschiedenen Datensätzen, die für Machine-Learning-Modelle und Forschungen genutzt werden. Der Fokus liegt dabei einerseits auf den enthaltenen Bildern selbst, die etwa pornografische Inhalte enthalten, sowie auf den Kategorien und den damit assoziierten Bildern.

Um Machine-Learning-Modelle zu trainieren und damit letztlich neue und unbekannte Inhalte zu erkennen, ist es wichtig, dass der zugrundeliegende Datensatz möglichst divers ist und vor allem eine gute Kategorisierung aufweist. In den vergangenen Jahren gab es aber immer wieder Fälle, bei denen derartige Systeme wohl wegen der schlechten Ausgangslage sehr schlecht funktioniert und Diskriminierung verfestigt haben. Im Zuge der aktuellen Black-Lives-Matter-Proteste haben deshalb Microsoft, IBM und Amazon ihre Arbeiten an solchen Systemen eingestellt oder zumindest ausgesetzt.

Abwertende Begriffe als Datengrundlage

Wie das Forscherteam nun zeigt, reproduziert auch der Tiny-Images-Datensatz des MIT bestehende Diskriminierungen wie Rassismus und Sexismus und verwendet etwa Ethnophaulismen als Kategorien, also abwertende Bezeichnungen für Menschengruppen. Laut dem MIT ist die Erstellung des Datensatzes im Jahr 2006 automatisiert umgesetzt worden, indem Worte aus der Wordnet-Sammlung als Kategorien kopiert worden waren und anschließend eine Online-Bildersuche mit diesen umgesetzt wurde.

Eine menschliche Prüfung der Kategorien oder damit assoziierter Bilder hat jedoch nicht stattgefunden. Machine-Learning-Modelle, die den Tiny-Image-Datensatz genutzt haben, haben damit auch dessen diskriminierende Kategorien erlernt. Der Datensatz ist aber sehr groß und die Bilder sind mit 32 x 32 Pixel sehr klein, "daher garantiert eine manuelle Überprüfung, selbst wenn dies möglich ist, nicht, dass anstößige Bilder vollständig entfernt werden können", heißt es auf der Webseite des MIT. Als Reaktion bleibe nur, den Datensatz nicht mehr anzubieten.

Die MIT-Forscher schreiben: "Vorurteile, beleidigende und nachteilige Bilder und abfällige Begriffe entfremden einen wichtigen Teil unserer Gemeinschaft - genau diejenigen, die wir einbeziehen wollen. Dies trägt auch zu schädlichen Verzerrungen in KI-Systemen bei, die auf solchen Daten trainiert werden. Darüber hinaus schadet das Vorhandensein solcher nachteiligen Bilder den Bemühungen, eine Kultur der Inklusivität in der Computer-Vision-Community zu fördern. Dies ist äußerst bedauerlich und widerspricht den Werten, die wir vertreten wollen."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


n0x30n 02. Jul 2020

Es kommt immer darauf an, was man damit trainieren will. Will man zum Beispiel eine KI...

Palerider 02. Jul 2020

Eine KI mit 'shit in' kann das perfekte Vorurteil werden... eine der großen Gefahren wenn...

jankapunkt 02. Jul 2020

Am besten wir unterdrücken alle negativen emotionen dann gibt es auch keine...



Aktuell auf der Startseite von Golem.de
Zbox Pico PI430AJ
Flotter Mini-PC mit Solid-State-Kühlung

Die fast lautlosen Kühler von Frore Systems funktionieren gut. Mehr Leistung auf so kleinem Raum ist kaum möglich. Eine ARM-CPU wäre aber spannend.
Ein Test von Martin Böckmann

Zbox Pico PI430AJ: Flotter Mini-PC mit Solid-State-Kühlung
Artikel
  1. Kernfusion: US-Fusionslabor erreicht konsistent Zündungen
    Kernfusion
    US-Fusionslabor erreicht konsistent Zündungen

    Vor einem Jahr gelang der US-Forschungseinrichtung NIF ein wichtiger Fortschritt bei der Kernfusion. Der wurde inzwischen mehrfach wiederholt.

  2. Honeybee Robotics: Riesige Leucht- und Energietürme für den Mond
    Honeybee Robotics
    Riesige Leucht- und Energietürme für den Mond

    Ein Start-up plant die Errichtung einer Infrastruktur auf dem Mond. Riesige Leuchttürme sollen Energie generieren und zukünftigen Rovern ihren Weg weisen.

  3. Energiewende: Deutsche Stromnetze im Dornröschenschlaf
    Energiewende
    Deutsche Stromnetze im Dornröschenschlaf

    IT ist der Game Changer der Energiewende - nur nicht in Deutschland.
    Eine Analyse von Gerd Mischler

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Last-Minute-Angebote bei Amazon • Avatar & The Crew Motorfest bis -50% • Xbox Series X 399€ • Cherry MX Board 3.0 S 49,95€ • Crucial MX500 2 TB 110,90€ • AVM FRITZ!Box 7590 AX + FRITZ!DECT 500 219€ [Werbung]
    •  /