Machine Learning: MIT nimmt Datensatz mit rassistischen Begriffen offline

Die 80 Millionen kategorisierten Bilder sind automatisiert erstellt worden. KI-Systeme haben mit dem MIT-Datensatz Beleidigungen erlernt.

Artikel veröffentlicht am ,
Das Stata Center ist Sitz des CSAIL.
Das Stata Center ist Sitz des CSAIL. (Bild: Tony Webster, flickr.com/CC-BY 2.0)

Das prestigeträchtige Computer Science & Artificial Intelligence Lab (CSAIL) des MIT (Massachusetts Institute of Technology) hat seinen für Machine-Learning-Aufgaben gedachten Datensatz Tiny Images mit etwa 80 Millionen Einzelbildern in mehr als 75.000 Kategorien offline genommen. Wie das Institut auf der Tiny-Images-Webseite mitteilt, sei diese Entscheidung dauerhaft und der Datensatz damit künftig gar nicht mehr verfügbar. Als Grund dafür wird angegeben, dass der Datensatz "abfällige Begriffe als Kategorien und beleidigende Bilder" enthalte.

Stellenmarkt
  1. Information Security Architect (m/w/d)
    NEMETSCHEK SE, München
  2. Projektleiter SAP HCM Inhouse (m/w/d)
    Jungheinrich AG, Hamburg
Detailsuche

Das MIT zieht damit die Konsequenzen aus Recherchen des Magazins The Register sowie einer Forschungsarbeit (PDF) von Vinay Prabhu, Forscher bei dem Startup UnifyID, sowie Abeba Birhane, die am University College Dublin promoviert. Die Untersuchung beschäftigt sich mit verschiedenen Datensätzen, die für Machine-Learning-Modelle und Forschungen genutzt werden. Der Fokus liegt dabei einerseits auf den enthaltenen Bildern selbst, die etwa pornografische Inhalte enthalten, sowie auf den Kategorien und den damit assoziierten Bildern.

Um Machine-Learning-Modelle zu trainieren und damit letztlich neue und unbekannte Inhalte zu erkennen, ist es wichtig, dass der zugrundeliegende Datensatz möglichst divers ist und vor allem eine gute Kategorisierung aufweist. In den vergangenen Jahren gab es aber immer wieder Fälle, bei denen derartige Systeme wohl wegen der schlechten Ausgangslage sehr schlecht funktioniert und Diskriminierung verfestigt haben. Im Zuge der aktuellen Black-Lives-Matter-Proteste haben deshalb Microsoft, IBM und Amazon ihre Arbeiten an solchen Systemen eingestellt oder zumindest ausgesetzt.

Abwertende Begriffe als Datengrundlage

Wie das Forscherteam nun zeigt, reproduziert auch der Tiny-Images-Datensatz des MIT bestehende Diskriminierungen wie Rassismus und Sexismus und verwendet etwa Ethnophaulismen als Kategorien, also abwertende Bezeichnungen für Menschengruppen. Laut dem MIT ist die Erstellung des Datensatzes im Jahr 2006 automatisiert umgesetzt worden, indem Worte aus der Wordnet-Sammlung als Kategorien kopiert worden waren und anschließend eine Online-Bildersuche mit diesen umgesetzt wurde.

Golem Akademie
  1. Webentwicklung mit React and Typescript: virtueller Fünf-Halbtage-Workshop
    6.–10. Dezember 2021, Virtuell
  2. Linux-Shellprogrammierung: virtueller Vier-Tage-Workshop
    8.–11. März 2021, Virtuell
Weitere IT-Trainings

Eine menschliche Prüfung der Kategorien oder damit assoziierter Bilder hat jedoch nicht stattgefunden. Machine-Learning-Modelle, die den Tiny-Image-Datensatz genutzt haben, haben damit auch dessen diskriminierende Kategorien erlernt. Der Datensatz ist aber sehr groß und die Bilder sind mit 32 x 32 Pixel sehr klein, "daher garantiert eine manuelle Überprüfung, selbst wenn dies möglich ist, nicht, dass anstößige Bilder vollständig entfernt werden können", heißt es auf der Webseite des MIT. Als Reaktion bleibe nur, den Datensatz nicht mehr anzubieten.

Die MIT-Forscher schreiben: "Vorurteile, beleidigende und nachteilige Bilder und abfällige Begriffe entfremden einen wichtigen Teil unserer Gemeinschaft - genau diejenigen, die wir einbeziehen wollen. Dies trägt auch zu schädlichen Verzerrungen in KI-Systemen bei, die auf solchen Daten trainiert werden. Darüber hinaus schadet das Vorhandensein solcher nachteiligen Bilder den Bemühungen, eine Kultur der Inklusivität in der Computer-Vision-Community zu fördern. Dies ist äußerst bedauerlich und widerspricht den Werten, die wir vertreten wollen."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


n0x30n 02. Jul 2020

Es kommt immer darauf an, was man damit trainieren will. Will man zum Beispiel eine KI...

Palerider 02. Jul 2020

Eine KI mit 'shit in' kann das perfekte Vorurteil werden... eine der großen Gefahren wenn...

jankapunkt 02. Jul 2020

Am besten wir unterdrücken alle negativen emotionen dann gibt es auch keine...



Aktuell auf der Startseite von Golem.de
Fälschung
Wieder Abmahnungen wegen Youporn-Streaming

Diesmal hat sich ein besonders dummer Betrüger an Abmahnungen zum Streaming bei Youporn versucht. In dem Brief stimmt fast keine Angabe.

Fälschung: Wieder Abmahnungen wegen Youporn-Streaming
Artikel
  1. Deutsche Telekom: Netflix, Facebook und Amazon sollen für Netzausbau zahlen
    Deutsche Telekom
    Netflix, Facebook und Amazon sollen für Netzausbau zahlen

    Deutsche Telekom, Vodafone und 11 weitere große europäische Netzbetreiber wollen jetzt Geld von den Content-Konzernen aus den USA sehen.

  2. Telekom-Internet-Booster: Feldtest bringt über 600 statt 50 MBit/s ins Haus
    Telekom-Internet-Booster
    Feldtest bringt über 600 statt 50 MBit/s ins Haus

    Die Telekom beginnt mit 5G DSL. Dafür wird im Haushalt eine Außenantenne benötigt.

  3. 800 MHz: Bundesnetzagentur dürfte nächste Auktion absagen
    800 MHz
    Bundesnetzagentur dürfte nächste Auktion absagen

    1&1 wird sich das neue Vorgehen nicht gefallen lassen. 800 MHz bietet wichtige Flächenfrequenzen auf dem Lande.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Heute ist Cyber Monday • AMD Ryzen 7 5800X 348€ • 3 für 2: Star Wars & Marvel • Bis 300€ Direktabzug auf TVs, Laptops uvm. • Bis 50% auf beyerdynamic + Gratis-Kopfhörer • Cyber Monday bei MM/Saturn (u. a. Xiaomi 11 Lite 5G 299€) • Alternate (u. a. be quiet CPU-Kühler 29,99€) [Werbung]
    •  /