Abo
  • IT-Karriere:

Machine Learning: Amazon verwirft sexistisches KI-Tool für Bewerber

Weil es Frauen klar benachteiligte, hat Amazon die Arbeit an seinem Machine-Learning-gestützten Tool zur Beurteilung von Bewerbern eingestellt. Die KI hatte sich die Haltung selbst beigebracht.

Artikel veröffentlicht am ,
Das Attribut Frau ist für Amazons Bewerberfilter negativ behaftet gewesen.
Das Attribut Frau ist für Amazons Bewerberfilter negativ behaftet gewesen. (Bild: Pixabay.com/Montage: Golem.de/CC0 1.0)

Amazon verwirft sein von Machine Learning gestütztes Bewerbungstool, welches das Unternehmen zur Bewertung von Bewerbern nutzen wollte. Der Grund: Der Algorithmus hatte sexistische Tendenzen und bewertete Männer grundsätzlich mit einer höheren Punktzahl als Frauen. Das berichtet die Nachrichtenagentur Reuters. Das Machine-Learning-System habe sich dieses Fehlverhalten selbst beigebracht und das Attribut, männlich zu sein, sehr hoch gewichtet.

Stellenmarkt
  1. BWI GmbH, Nürnberg, Bonn, Meckenheim, München
  2. Zellstoff- und Papierfabrik Rosenthal GmbH, Rosenthal am Rennsteig, Arneburg

Das System sollte Bewerber auf einer Skala von eins bis fünf Sternen einsortieren. Bereits 2014 hatte sich Reuters mit Entwicklern des Tools unterhalten, die anonym bleiben wollten. "Sie wollten, dass das Programm sprichwörtlich eine Maschine ist, bei der ich dir 100 Bewerbungen gebe, sie die fünf Besten ausspuckt und wir diese dann einstellen", sagte einer der involvierten Entwickler.

Das Problem: Amazon nutzte hauptsächlich zehn Jahre alte Bewerbungen, die überwiegend von Männern stammten, als Vorlage, um das Machine-Learning-Modell zu trainieren. Daraus zog das System entsprechende Schlüsse. Das Wort Frauen wurde nach Aussagen von Reuters vom Programm als schlecht bewertet und floss negativ in die Endwertung ein, wie die Entwickler schon 2015 feststellten. Daraufhin änderten die Entwickler das Verhalten so, dass zumindest das Wort Frau als neutral angesehen wurde. Letztlich war das aber wohl keine ausreichende Lösung.

Laut dem britischen Nachrichtensender BBC sind etwa 40 Prozent aller Amazon-Mitarbeiter weltweit Frauen. Ein so vorurteilbehaftetes System wäre also mutmaßlich nicht entstanden, hätten die Entwickler ihre Quelldaten breiter gestreut. Allerdings ist Amazon mit dem Problem ungerechter KI-Systeme nicht allein: Eine Forscherin am Massachussetts Institute of Technology (MIT) hat etwa herausgefunden, dass Bilderkennungssysteme von IBM und Microsoft unfair bewerten.



Anzeige
Hardware-Angebote
  1. 289€
  2. 469€
  3. (reduzierte Überstände, Restposten & Co.)

RobZ 14. Dez 2018

Auf dem Bild sehe ich nur eine Benachteiligung von Personen mit "langen Haaren".

janoP 17. Okt 2018

Was ist dir wichtiger: Dass die Leute in 50 Jahren ohne nachzuschauen sagen können, an...

andy01q 16. Okt 2018

Die KI bekommt im Beurteilungsschritt kein Geschlecht mitgeteilt, das Geschlecht wird...

andy01q 16. Okt 2018

Tay wurde nach dem ersten Versuch abgeschaltet, die Trainingsdaten größtenteils gelöscht...

frostbitten king 15. Okt 2018

Danke


Folgen Sie uns
       


Noctuas passiver CPU-Kühler (Computex 2019)

Noctua zeigt den ersten passiven CPU-Kühler, welcher sogar einen achtkernigen Core i9-9900K auf Temperatur halten kann.

Noctuas passiver CPU-Kühler (Computex 2019) Video aufrufen
Watch Dogs Legion angespielt: Eine Seniorin als Ein-Frau-Armee
Watch Dogs Legion angespielt
Eine Seniorin als Ein-Frau-Armee

E3 2019 Elitesoldaten brauchen wir nicht - in Watch Dogs Legion hacken und schießen wir auch als Pensionistin für den Widerstand. Beim Anspielen haben wir sehr über die ebenso klapprige wie kampflustige Oma Gwendoline gelacht.


    Ocean Discovery X Prize: Autonome Fraunhofer-Roboter erforschen die Tiefsee
    Ocean Discovery X Prize
    Autonome Fraunhofer-Roboter erforschen die Tiefsee

    Öffentliche Vergaberichtlinien und agile Arbeitsweise: Die Teilnahme am Ocean Discovery X Prize war nicht einfach für die Forscher des Fraunhofer Instituts IOSB. Deren autonome Tauchroboter zur Tiefseekartierung schafften es unter die besten fünf weltweit.
    Ein Bericht von Werner Pluta

    1. JAB Code Bunter Barcode gegen Fälschungen

    Ada und Spark: Mehr Sicherheit durch bessere Programmiersprachen
    Ada und Spark
    Mehr Sicherheit durch bessere Programmiersprachen

    Viele Sicherheitslücken in Software sind auf Programmierfehler zurückzuführen. Diese Fehler lassen sich aber vermeiden - und zwar unter anderem durch die Wahl einer guten Programmiersprache. Ada und Spark gehören dazu, leider sind sie immer noch wenig bekannt.
    Von Johannes Kanig

    1. Das andere How-to Deutsch lernen für Programmierer
    2. Programmiersprachen, Pakete, IDEs So steigen Entwickler in Machine Learning ein

      •  /