• IT-Karriere:
  • Services:

Diskriminierung: KI ist nur so fair wie die Menschen

Angesichts weltweiter Proteste gegen Rassismus trennt sich etwa IBM von künstlicher Intelligenz, die Diskriminierung verfestigen kann. Das Problem liegt aber nicht in der Software, sondern in den Entwicklerteams.

Ein Bericht von Miriam Binner veröffentlicht am
Proteste gegen Diskriminierung in Boston am 10. Juni 2020
Proteste gegen Diskriminierung in Boston am 10. Juni 2020 (Bild: Keiko Hiromi/AFLO)

Die Bilder von der Trauerfeier für George Floyd sind diese Woche um die ganze Welt gegangen. Der Tod des 46-jährigen Schwarzen bei einem gewaltsamen Polizeieinsatz in den USA trieb auch in Deutschland Hunderttausende Menschen auf die Straße. Die aktuelle Lage nutzt der US-amerikanische IT-Konzern IBM für ein eigenes Zeichen gegen Rassismus: Das Unternehmen stellt die Entwicklung von Gesichtserkennungssoftware ein und will vorerst auch nicht mehr dazu forschen, wie Golem.de berichtete.

Es ist ein kleiner Schritt - die KI-Branche kommt laut dem New Yorker AI Now Institute in Sachen Diversität kaum voran, obwohl die Sorgen seit Jahrzehnten schwelen.

Fälle von künstlicher Intelligenz (KI), die etwa nach Hautfarbe oder Geschlecht diskriminiert, gibt es viele: In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise ein Passfoto ab, weil der Mann auf dem Bild angeblich die Augen geschlossen hatte. Er stach offenbar wegen seines Aussehens aus der Masse heraus - der Mann war in Taiwan geboren.

In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen - und soll damit Richtern bei der Urteilsfindung helfen. Und beim Technikkonzern Amazon schlug ein Recruiting-Tool auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Weitere Beispiele sammelt die gemeinnützige Organisation Algorithm Watch.

Stellenmarkt
  1. Libri, Hamburg
  2. BGN Berufsgenossenschaft Nahrungsmittel und Gastgewerbe, Mannheim

Für die Entwickler von KI sei es höchste Zeit, ihre Teams vielfältiger zu denken, mahnte das AI Now Institute bereits in einer vor einem Jahr veröffentlichten Studie (PDF). Im Zentrum steht die Befürchtung: Die Menschen hinter den KI-Systemen schreiben ihre Vorurteile unbewusst fort - wenn sich die Zusammensetzung der Teams nicht grundlegend ändert.

KI: Der Fehler steckt im System

Um zu fairen Algorithmen zu kommen, kann an vielen Stellen angesetzt werden: an den Trainingsdaten, den mathematischen Konzepten, den Tests und der Ergebniskontrolle. Doch etwas anderes wird dabei häufig außer Acht gelassen. "Bei all den vermeintlich harten Ansätzen, wie diskriminierende Variablen zu entfernen sind, wird oft vergessen: Erst mal müssen die menschlichen Systeme so gebaut werden, dass Vorurteile in den Daten überhaupt auffallen", sagte die KI-Expertin und Gründerin des Textanalyse-Start-ups Datanizing, Stephanie Fischer, im Gespräch mit Golem.de.

Vielfalt in den Teams bringt den entscheidenden Fortschritt. Nur verschiedene Blickwinkel verhindern Vorurteile der KI - und zwar schon, bevor es an den Code geht. Denn klar ist, dass wohl die wenigsten Softwareanbieter absichtlich gegen das Diskriminierungsverbot aus Artikel 3 des Grundgesetzes verstoßen.

"Die Fehlerquellen erscheinen zwar im Nachhinein häufig als offensichtlich, im Vorfeld werden sie jedoch schlicht nicht erkannt", warnte der Branchenverband Bitkom bereits 2017 in einem Positionspapier (PDF). Solche Fehler passierten auch etablierten Unternehmen mit ausgeprägter Expertise in IT und KI.

In der Theorie ist das Problem bekannt. Softwareanbieter wie Amazon, Microsoft und IBM unternehmen immer wieder Lösungsversuche, allerdings mit wenig Erfolg. Ein Beispiel hierfür ist Googles Vorstoß mit einem KI-Rat vor einem Jahr. Das Gremium sollte für Gleichberechtigung und Ethik eintreten, scheiterte aber nach nur einer Woche an Protesten der eigenen Belegschaft. Die Ursache war, dass mehrere Mitglieder selbst durch Ressentiments aufgefallen waren.

Googles Fehlschlag steht sinnbildlich für hartnäckige blinde Flecken in den Unternehmen - und zwar genau bei der Zusammensetzung ihrer KI-Teams. Selbst bei den Tech-Konzernen und Innovationstreibern der Branche herrscht Einheitlichkeit, wie das AI Now Institute mit einigen Zahlen belegt: Bei Facebook liegt der Frauenanteil in der KI-Forschung bei 15 Prozent, bei Google sind es 10 Prozent. Angestellte mit dunkler Hautfarbe machen beim Suchmaschinenkonzern gerade einmal einen Anteil von 2,5 Prozent aus, Facebook und Microsoft kommen jeweils auf 4 Prozent. Das harte Urteil der New Yorker Studienautorinnen lautet: Die KI-Branche steckt in einer Diversitätskrise.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Ein Knackpunkt sind die Trainingsdaten für maschinelles Lernen 
  1. 1
  2. 2
  3. 3
  4.  


Anzeige
Spiele-Angebote
  1. (-44%) 27,99€
  2. (-76%) 14,50€
  3. 4,99€

GodsBoss 18. Jun 2020 / Themenstart

Ich habe nichts dagegen, dass Menschen und/oder Unternehmen Sanktionen erfahren, wenn...

janoP 12. Jun 2020 / Themenstart

Ob die Ergebnisse einer selbstlernenden, auf künstlichen neuronalen Netzen basierenden KI...

Hotohori 11. Jun 2020 / Themenstart

Ist natürlich auch ein Problem, die Erwartungshaltung der Menschen was die KI leisten...

Hotohori 11. Jun 2020 / Themenstart

Stimmt, das kommt auch noch dazu... XD

Gole-mAndI 11. Jun 2020 / Themenstart

Du hast das falsch verstanden. Der Prozess sieht kein Nachdenken vor, daher findet es...

Kommentieren


Folgen Sie uns
       


Xiaomi Mi 10 Pro - Test

Das Mi 10 Pro ist Xiaomis jüngstes Top-Smartphone. Im Test überzeugt vor allem die Kamera.

Xiaomi Mi 10 Pro - Test Video aufrufen
Kumpan im Test: Aussehen von gestern, Technik von morgen
Kumpan im Test
Aussehen von gestern, Technik von morgen

Mit der Marke Kumpan Electric wollen drei Brüder aus Remagen den Markt für elektrische Roller erobern. Sie setzen auf den Look der deutschen Wirtschaftswunderjahre, wir haben ein Modell getestet.
Ein Praxistest von Dirk Kunde

  1. Mobility Swapfiets testet Elektroroller im Abo
  2. Elektromobilität Volabo baut Niedrigspannungsmotor in Serie
  3. Corona-Konjunkturpaket Staatlicher Teil der Elektroauto-Kaufprämie wird verdoppelt

Echo Auto im Test: Tolle Sprachsteuerung und neue Alexa-Funktionen
Echo Auto im Test
Tolle Sprachsteuerung und neue Alexa-Funktionen

Im Auto ist die Alexa-Sprachsteuerung noch praktischer als daheim. Amazon hat bei Echo Auto die wichtigsten Einsatzzwecke im Fahrzeug bedacht.
Ein Test von Ingo Pakalski

  1. Echo Auto Amazon bringt Alexa für 60 Euro ins Auto
  2. Echo Flex mit zwei Modulen im Test Gut gedacht, mäßig gemacht
  3. Amazon Zahlreiche Echo-Modelle nicht mehr bis Weihnachten lieferbar

Complex Event Processing: Informationen fast in Echtzeit auswerten
Complex Event Processing
Informationen fast in Echtzeit auswerten

Ob autonomes Fahren, Aktienhandel oder Onlineshopping: Soll das Ergebnis gut sein, müssen Informationen quasi in Echtzeit ausgewertet werden. Eine gute Lösung dafür: CEP.
Von Boris Mayer

  1. Musik Software generiert Nirvana-Songtexte
  2. mmap Codeanalyse mit sechs Zeilen Bash
  3. Digitale Kultur Demoszene wird finnisches Kulturerbe

    •  /