Diskriminierung: KI ist nur so fair wie die Menschen

Angesichts weltweiter Proteste gegen Rassismus trennt sich etwa IBM von künstlicher Intelligenz, die Diskriminierung verfestigen kann. Das Problem liegt aber nicht in der Software, sondern in den Entwicklerteams.

Ein Bericht von Miriam Binner veröffentlicht am
Proteste gegen Diskriminierung in Boston am 10. Juni 2020
Proteste gegen Diskriminierung in Boston am 10. Juni 2020 (Bild: Keiko Hiromi/AFLO)

Die Bilder von der Trauerfeier für George Floyd sind diese Woche um die ganze Welt gegangen. Der Tod des 46-jährigen Schwarzen bei einem gewaltsamen Polizeieinsatz in den USA trieb auch in Deutschland Hunderttausende Menschen auf die Straße. Die aktuelle Lage nutzt der US-amerikanische IT-Konzern IBM für ein eigenes Zeichen gegen Rassismus: Das Unternehmen stellt die Entwicklung von Gesichtserkennungssoftware ein und will vorerst auch nicht mehr dazu forschen, wie Golem.de berichtete.

Es ist ein kleiner Schritt - die KI-Branche kommt laut dem New Yorker AI Now Institute in Sachen Diversität kaum voran, obwohl die Sorgen seit Jahrzehnten schwelen.

Fälle von künstlicher Intelligenz (KI), die etwa nach Hautfarbe oder Geschlecht diskriminiert, gibt es viele: In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise ein Passfoto ab, weil der Mann auf dem Bild angeblich die Augen geschlossen hatte. Er stach offenbar wegen seines Aussehens aus der Masse heraus - der Mann war in Taiwan geboren.

In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen - und soll damit Richtern bei der Urteilsfindung helfen. Und beim Technikkonzern Amazon schlug ein Recruiting-Tool auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Weitere Beispiele sammelt die gemeinnützige Organisation Algorithm Watch.

Stellenmarkt
  1. Referentin (m/w/d) IT-Projektmanagement
    SOS-Kinderdorf e.V., München
  2. Network Operator (m/w/d) B2B
    Tele Columbus AG, Leipzig
Detailsuche

Für die Entwickler von KI sei es höchste Zeit, ihre Teams vielfältiger zu denken, mahnte das AI Now Institute bereits in einer vor einem Jahr veröffentlichten Studie (PDF). Im Zentrum steht die Befürchtung: Die Menschen hinter den KI-Systemen schreiben ihre Vorurteile unbewusst fort - wenn sich die Zusammensetzung der Teams nicht grundlegend ändert.

KI: Der Fehler steckt im System

Um zu fairen Algorithmen zu kommen, kann an vielen Stellen angesetzt werden: an den Trainingsdaten, den mathematischen Konzepten, den Tests und der Ergebniskontrolle. Doch etwas anderes wird dabei häufig außer Acht gelassen. "Bei all den vermeintlich harten Ansätzen, wie diskriminierende Variablen zu entfernen sind, wird oft vergessen: Erst mal müssen die menschlichen Systeme so gebaut werden, dass Vorurteile in den Daten überhaupt auffallen", sagte die KI-Expertin und Gründerin des Textanalyse-Start-ups Datanizing, Stephanie Fischer, im Gespräch mit Golem.de.

Vielfalt in den Teams bringt den entscheidenden Fortschritt. Nur verschiedene Blickwinkel verhindern Vorurteile der KI - und zwar schon, bevor es an den Code geht. Denn klar ist, dass wohl die wenigsten Softwareanbieter absichtlich gegen das Diskriminierungsverbot aus Artikel 3 des Grundgesetzes verstoßen.

"Die Fehlerquellen erscheinen zwar im Nachhinein häufig als offensichtlich, im Vorfeld werden sie jedoch schlicht nicht erkannt", warnte der Branchenverband Bitkom bereits 2017 in einem Positionspapier (PDF). Solche Fehler passierten auch etablierten Unternehmen mit ausgeprägter Expertise in IT und KI.

In der Theorie ist das Problem bekannt. Softwareanbieter wie Amazon, Microsoft und IBM unternehmen immer wieder Lösungsversuche, allerdings mit wenig Erfolg. Ein Beispiel hierfür ist Googles Vorstoß mit einem KI-Rat vor einem Jahr. Das Gremium sollte für Gleichberechtigung und Ethik eintreten, scheiterte aber nach nur einer Woche an Protesten der eigenen Belegschaft. Die Ursache war, dass mehrere Mitglieder selbst durch Ressentiments aufgefallen waren.

Googles Fehlschlag steht sinnbildlich für hartnäckige blinde Flecken in den Unternehmen - und zwar genau bei der Zusammensetzung ihrer KI-Teams. Selbst bei den Tech-Konzernen und Innovationstreibern der Branche herrscht Einheitlichkeit, wie das AI Now Institute mit einigen Zahlen belegt: Bei Facebook liegt der Frauenanteil in der KI-Forschung bei 15 Prozent, bei Google sind es 10 Prozent. Angestellte mit dunkler Hautfarbe machen beim Suchmaschinenkonzern gerade einmal einen Anteil von 2,5 Prozent aus, Facebook und Microsoft kommen jeweils auf 4 Prozent. Das harte Urteil der New Yorker Studienautorinnen lautet: Die KI-Branche steckt in einer Diversitätskrise.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Ein Knackpunkt sind die Trainingsdaten für maschinelles Lernen 
  1. 1
  2. 2
  3. 3
  4.  


GodsBoss 18. Jun 2020

Ich habe nichts dagegen, dass Menschen und/oder Unternehmen Sanktionen erfahren, wenn...

janoP 12. Jun 2020

Ob die Ergebnisse einer selbstlernenden, auf künstlichen neuronalen Netzen basierenden KI...

Hotohori 11. Jun 2020

Ist natürlich auch ein Problem, die Erwartungshaltung der Menschen was die KI leisten...

Hotohori 11. Jun 2020

Stimmt, das kommt auch noch dazu... XD



Aktuell auf der Startseite von Golem.de
"Macht mich einfach wahnsinnig"
Kelber beklagt digitale Inkompetenz von VW

Der Bundesdatenschutzbeauftragte Ulrich Kelber hat vor einem Jahr ein Elektroauto bei VW bestellt. Und seitdem nichts mehr davon gehört.

Macht mich einfach wahnsinnig: Kelber beklagt digitale Inkompetenz von VW
Artikel
  1. Unikate: Deutsche Post verkauft eine Milliarde Matrixcode-Briefmarken
    Unikate
    Deutsche Post verkauft eine Milliarde Matrixcode-Briefmarken

    Die Deutsche Post begann im Februar 2021, Briefmarken mit Matrixcode zu verkaufen. Nun wurden bereits eine Milliarde Stück verkauft.

  2. Telemetrie: Voyager 1 weiß wohl nicht, wo sie ist
    Telemetrie
    Voyager 1 weiß wohl nicht, wo sie ist

    Seit 1977 befindet sich die Raumsonde Voyager 1 auf ihrer Reise durchs All. Die neusten Daten scheinen einen falschen Standort anzuzeigen.

  3. Agile Softwareentwicklung: Einfach mal so drauflos programmiert?
    Agile Softwareentwicklung
    Einfach mal so drauflos programmiert?

    Ohne Scrum wäre das nicht passiert, heißt es oft, wenn etwas schiefgeht. Dabei ist es umgekehrt: Ohne agiles Arbeiten geht es nicht mehr. Doch es gibt drei fundamentale Missverständnisse.
    Von Frank Heckel

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Xbox Series X bestellbar • Samsung schenkt 19% MwSt. • MindStar (u. a. AMD Ryzen 9 5950X 488€) • Cyber Week: Jetzt alle Deals freigeschaltet • LG OLED TV 77" 62% günstiger: 1.749€ • Bis zu 35% auf MSI • Alternate (u. a. AKRacing Core EX SE Gaming-Stuhl 169€) [Werbung]
    •  /