Machine Learning: Amazon verwirft sexistisches KI-Tool für Bewerber

Weil es Frauen klar benachteiligte, hat Amazon die Arbeit an seinem Machine-Learning-gestützten Tool zur Beurteilung von Bewerbern eingestellt. Die KI hatte sich die Haltung selbst beigebracht.

Artikel veröffentlicht am ,
Das Attribut Frau ist für Amazons Bewerberfilter negativ behaftet gewesen.
Das Attribut Frau ist für Amazons Bewerberfilter negativ behaftet gewesen. (Bild: Pixabay.com/Montage: Golem.de/CC0 1.0)

Amazon verwirft sein von Machine Learning gestütztes Bewerbungstool, welches das Unternehmen zur Bewertung von Bewerbern nutzen wollte. Der Grund: Der Algorithmus hatte sexistische Tendenzen und bewertete Männer grundsätzlich mit einer höheren Punktzahl als Frauen. Das berichtet die Nachrichtenagentur Reuters. Das Machine-Learning-System habe sich dieses Fehlverhalten selbst beigebracht und das Attribut, männlich zu sein, sehr hoch gewichtet.

Stellenmarkt
  1. Scrum-Master (m/w/d) eGovernment
    Anstalt für Kommunale Datenverarbeitung in Bayern (AKDB), verschiedene Standtorte
  2. IT-Systemadministrator (m/w/d)
    BruderhausDiakonie Stiftung Gustav Werner und Haus am Berg, Reutlingen
Detailsuche

Das System sollte Bewerber auf einer Skala von eins bis fünf Sternen einsortieren. Bereits 2014 hatte sich Reuters mit Entwicklern des Tools unterhalten, die anonym bleiben wollten. "Sie wollten, dass das Programm sprichwörtlich eine Maschine ist, bei der ich dir 100 Bewerbungen gebe, sie die fünf Besten ausspuckt und wir diese dann einstellen", sagte einer der involvierten Entwickler.

Das Problem: Amazon nutzte hauptsächlich zehn Jahre alte Bewerbungen, die überwiegend von Männern stammten, als Vorlage, um das Machine-Learning-Modell zu trainieren. Daraus zog das System entsprechende Schlüsse. Das Wort Frauen wurde nach Aussagen von Reuters vom Programm als schlecht bewertet und floss negativ in die Endwertung ein, wie die Entwickler schon 2015 feststellten. Daraufhin änderten die Entwickler das Verhalten so, dass zumindest das Wort Frau als neutral angesehen wurde. Letztlich war das aber wohl keine ausreichende Lösung.

Laut dem britischen Nachrichtensender BBC sind etwa 40 Prozent aller Amazon-Mitarbeiter weltweit Frauen. Ein so vorurteilbehaftetes System wäre also mutmaßlich nicht entstanden, hätten die Entwickler ihre Quelldaten breiter gestreut. Allerdings ist Amazon mit dem Problem ungerechter KI-Systeme nicht allein: Eine Forscherin am Massachussetts Institute of Technology (MIT) hat etwa herausgefunden, dass Bilderkennungssysteme von IBM und Microsoft unfair bewerten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


RobZ 14. Dez 2018

Auf dem Bild sehe ich nur eine Benachteiligung von Personen mit "langen Haaren".

janoP 17. Okt 2018

Was ist dir wichtiger: Dass die Leute in 50 Jahren ohne nachzuschauen sagen können, an...

andy01q 16. Okt 2018

Die KI bekommt im Beurteilungsschritt kein Geschlecht mitgeteilt, das Geschlecht wird...

andy01q 16. Okt 2018

Tay wurde nach dem ersten Versuch abgeschaltet, die Trainingsdaten größtenteils gelöscht...



Aktuell auf der Startseite von Golem.de
25 Jahre Mars Attacks!
"Aus irgendeinem merkwürdigen Grund fehl am Platz"

Viele Amerikaner fanden Tim Burtons Mars Attacks! nicht so witzig, aber der Rest der Welt lacht umso mehr - bis heute, der Film ist grandios gealtert.
Von Peter Osteried

25 Jahre Mars Attacks!: Aus irgendeinem merkwürdigen Grund fehl am Platz
Artikel
  1. NIS 2 und Compliance vs. Security: Kann Sicherheit einfach beschlossen werden?
    NIS 2 und Compliance vs. Security
    Kann Sicherheit einfach beschlossen werden?

    Mit der NIS-2-Richtlinie will der Gesetzgeber für IT-Sicherheit sorgen. Doch gut gemeinte Regeln kommen in der Praxis nicht immer unbedingt auch gut an.
    Von Nils Brinker

  2. Artemis I: Orion-Kapsel ist in Mondorbit eingeschwenkt
    Artemis I
    Orion-Kapsel ist in Mondorbit eingeschwenkt

    Die Testmission für Mondlandungen der Nasa Artemis I hat den Mond erreicht. In den kommenden Tagen macht sich die Orion-Kapsel auf den Rückweg.

  3. Apple-Auftragsfertiger: Unruhen bei Foxconn und 30 Prozent iPhone-Produktionsverlust
    Apple-Auftragsfertiger
    Unruhen bei Foxconn und 30 Prozent iPhone-Produktionsverlust

    Foxconn soll Einstellungsprämien an Arbeiter nicht gezahlt haben, weshalb es zu Unruhen kam. Nun gab es Massenkündigungen. Für Apple ist die Situation gefährlich.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Black Friday bei Mindfactory, MediaMarkt & Saturn • Prime-Filme leihen für je 0,99€ • WD_BLACK SN770 500GB 49,99€ • GIGABYTE Z690 AORUS ELITE 179€ • Seagate FireCuda 530 1TB 119,90€ • Crucial P3 Plus 1TB 81,99 & P2 1TB 67,99€ • Alpenföhn Wing Boost 3 ARGB 120 3er-Pack 42,89€ [Werbung]
    •  /