• IT-Karriere:
  • Services:

Diskriminierung: KI ist nur so fair wie die Menschen

Angesichts weltweiter Proteste gegen Rassismus trennt sich etwa IBM von künstlicher Intelligenz, die Diskriminierung verfestigen kann. Das Problem liegt aber nicht in der Software, sondern in den Entwicklerteams.

Ein Bericht von Miriam Binner veröffentlicht am
Proteste gegen Diskriminierung in Boston am 10. Juni 2020
Proteste gegen Diskriminierung in Boston am 10. Juni 2020 (Bild: Keiko Hiromi/AFLO)

Die Bilder von der Trauerfeier für George Floyd sind diese Woche um die ganze Welt gegangen. Der Tod des 46-jährigen Schwarzen bei einem gewaltsamen Polizeieinsatz in den USA trieb auch in Deutschland Hunderttausende Menschen auf die Straße. Die aktuelle Lage nutzt der US-amerikanische IT-Konzern IBM für ein eigenes Zeichen gegen Rassismus: Das Unternehmen stellt die Entwicklung von Gesichtserkennungssoftware ein und will vorerst auch nicht mehr dazu forschen, wie Golem.de berichtete.

Es ist ein kleiner Schritt - die KI-Branche kommt laut dem New Yorker AI Now Institute in Sachen Diversität kaum voran, obwohl die Sorgen seit Jahrzehnten schwelen.

Fälle von künstlicher Intelligenz (KI), die etwa nach Hautfarbe oder Geschlecht diskriminiert, gibt es viele: In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise ein Passfoto ab, weil der Mann auf dem Bild angeblich die Augen geschlossen hatte. Er stach offenbar wegen seines Aussehens aus der Masse heraus - der Mann war in Taiwan geboren.

In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen - und soll damit Richtern bei der Urteilsfindung helfen. Und beim Technikkonzern Amazon schlug ein Recruiting-Tool auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Weitere Beispiele sammelt die gemeinnützige Organisation Algorithm Watch.

Stellenmarkt
  1. Fraunhofer-Institut für Integrierte Schaltungen IIS, Nürnberg
  2. INTERBODEN GmbH & Co. KG, Ratingen

Für die Entwickler von KI sei es höchste Zeit, ihre Teams vielfältiger zu denken, mahnte das AI Now Institute bereits in einer vor einem Jahr veröffentlichten Studie (PDF). Im Zentrum steht die Befürchtung: Die Menschen hinter den KI-Systemen schreiben ihre Vorurteile unbewusst fort - wenn sich die Zusammensetzung der Teams nicht grundlegend ändert.

KI: Der Fehler steckt im System

Um zu fairen Algorithmen zu kommen, kann an vielen Stellen angesetzt werden: an den Trainingsdaten, den mathematischen Konzepten, den Tests und der Ergebniskontrolle. Doch etwas anderes wird dabei häufig außer Acht gelassen. "Bei all den vermeintlich harten Ansätzen, wie diskriminierende Variablen zu entfernen sind, wird oft vergessen: Erst mal müssen die menschlichen Systeme so gebaut werden, dass Vorurteile in den Daten überhaupt auffallen", sagte die KI-Expertin und Gründerin des Textanalyse-Start-ups Datanizing, Stephanie Fischer, im Gespräch mit Golem.de.

Vielfalt in den Teams bringt den entscheidenden Fortschritt. Nur verschiedene Blickwinkel verhindern Vorurteile der KI - und zwar schon, bevor es an den Code geht. Denn klar ist, dass wohl die wenigsten Softwareanbieter absichtlich gegen das Diskriminierungsverbot aus Artikel 3 des Grundgesetzes verstoßen.

"Die Fehlerquellen erscheinen zwar im Nachhinein häufig als offensichtlich, im Vorfeld werden sie jedoch schlicht nicht erkannt", warnte der Branchenverband Bitkom bereits 2017 in einem Positionspapier (PDF). Solche Fehler passierten auch etablierten Unternehmen mit ausgeprägter Expertise in IT und KI.

In der Theorie ist das Problem bekannt. Softwareanbieter wie Amazon, Microsoft und IBM unternehmen immer wieder Lösungsversuche, allerdings mit wenig Erfolg. Ein Beispiel hierfür ist Googles Vorstoß mit einem KI-Rat vor einem Jahr. Das Gremium sollte für Gleichberechtigung und Ethik eintreten, scheiterte aber nach nur einer Woche an Protesten der eigenen Belegschaft. Die Ursache war, dass mehrere Mitglieder selbst durch Ressentiments aufgefallen waren.

Googles Fehlschlag steht sinnbildlich für hartnäckige blinde Flecken in den Unternehmen - und zwar genau bei der Zusammensetzung ihrer KI-Teams. Selbst bei den Tech-Konzernen und Innovationstreibern der Branche herrscht Einheitlichkeit, wie das AI Now Institute mit einigen Zahlen belegt: Bei Facebook liegt der Frauenanteil in der KI-Forschung bei 15 Prozent, bei Google sind es 10 Prozent. Angestellte mit dunkler Hautfarbe machen beim Suchmaschinenkonzern gerade einmal einen Anteil von 2,5 Prozent aus, Facebook und Microsoft kommen jeweils auf 4 Prozent. Das harte Urteil der New Yorker Studienautorinnen lautet: Die KI-Branche steckt in einer Diversitätskrise.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Ein Knackpunkt sind die Trainingsdaten für maschinelles Lernen 
  1. 1
  2. 2
  3. 3
  4.  


Anzeige
Top-Angebote
  1. 117,99€
  2. (u. a. Resident Evil Village für 49,99€, Wochenangebote (u. a. Resident Evil 7 Gold Edition für...
  3. (u. a. Xiaomi Redmi Note 9 128GB 6.53 Zoll FHD+ inkl. Kopfhörer für 179,90€, Xiaomi Mi 10T...
  4. (u. a. Eufy Smart-Home-Produkte, Xiaomi Redmi Note 9T 5G 64GB, 6.53 Zoll FHD+ DotDisplay 90Hz für...

GodsBoss 18. Jun 2020

Ich habe nichts dagegen, dass Menschen und/oder Unternehmen Sanktionen erfahren, wenn...

janoP 12. Jun 2020

Ob die Ergebnisse einer selbstlernenden, auf künstlichen neuronalen Netzen basierenden KI...

Hotohori 11. Jun 2020

Ist natürlich auch ein Problem, die Erwartungshaltung der Menschen was die KI leisten...

Hotohori 11. Jun 2020

Stimmt, das kommt auch noch dazu... XD

Gole-mAndI 11. Jun 2020

Du hast das falsch verstanden. Der Prozess sieht kein Nachdenken vor, daher findet es...


Folgen Sie uns
       


Monkey Island - Titelmusik aller Versionen

Wir haben alle Varianten der Titelmusik im Video zusammengestellt - plus Bonusversion.

Monkey Island - Titelmusik aller Versionen Video aufrufen
    •  /