Diskriminierung: KI ist nur so fair wie die Menschen

Angesichts weltweiter Proteste gegen Rassismus trennt sich etwa IBM von künstlicher Intelligenz, die Diskriminierung verfestigen kann. Das Problem liegt aber nicht in der Software, sondern in den Entwicklerteams.

Ein Bericht von Miriam Binner veröffentlicht am
Proteste gegen Diskriminierung in Boston am 10. Juni 2020
Proteste gegen Diskriminierung in Boston am 10. Juni 2020 (Bild: Keiko Hiromi/AFLO)

Die Bilder von der Trauerfeier für George Floyd sind diese Woche um die ganze Welt gegangen. Der Tod des 46-jährigen Schwarzen bei einem gewaltsamen Polizeieinsatz in den USA trieb auch in Deutschland Hunderttausende Menschen auf die Straße. Die aktuelle Lage nutzt der US-amerikanische IT-Konzern IBM für ein eigenes Zeichen gegen Rassismus: Das Unternehmen stellt die Entwicklung von Gesichtserkennungssoftware ein und will vorerst auch nicht mehr dazu forschen, wie Golem.de berichtete.

Es ist ein kleiner Schritt - die KI-Branche kommt laut dem New Yorker AI Now Institute in Sachen Diversität kaum voran, obwohl die Sorgen seit Jahrzehnten schwelen.

Fälle von künstlicher Intelligenz (KI), die etwa nach Hautfarbe oder Geschlecht diskriminiert, gibt es viele: In Neuseeland etwa lehnte eine Software zur Bilderkennung fälschlicherweise ein Passfoto ab, weil der Mann auf dem Bild angeblich die Augen geschlossen hatte. Er stach offenbar wegen seines Aussehens aus der Masse heraus - der Mann war in Taiwan geboren.

In den USA prognostiziert ein Algorithmus Menschen mit dunklen Hautfarben ein höheres Risiko, künftig Verbrechen zu begehen - und soll damit Richtern bei der Urteilsfindung helfen. Und beim Technikkonzern Amazon schlug ein Recruiting-Tool auf Basis von Machine Learning systematisch Männer als geeignetere Kandidaten vor. Weitere Beispiele sammelt die gemeinnützige Organisation Algorithm Watch.

Stellenmarkt
  1. IT-Consultant (m/w/d) ECM/DMS
    Tönnies Business Solutions GmbH, Rheda-Wiedenbrück
  2. Gruppenleiter (m/w/d) IT-Architektur
    ITERGO Informationstechnologie GmbH, Düsseldorf
Detailsuche

Für die Entwickler von KI sei es höchste Zeit, ihre Teams vielfältiger zu denken, mahnte das AI Now Institute bereits in einer vor einem Jahr veröffentlichten Studie (PDF). Im Zentrum steht die Befürchtung: Die Menschen hinter den KI-Systemen schreiben ihre Vorurteile unbewusst fort - wenn sich die Zusammensetzung der Teams nicht grundlegend ändert.

KI: Der Fehler steckt im System

Um zu fairen Algorithmen zu kommen, kann an vielen Stellen angesetzt werden: an den Trainingsdaten, den mathematischen Konzepten, den Tests und der Ergebniskontrolle. Doch etwas anderes wird dabei häufig außer Acht gelassen. "Bei all den vermeintlich harten Ansätzen, wie diskriminierende Variablen zu entfernen sind, wird oft vergessen: Erst mal müssen die menschlichen Systeme so gebaut werden, dass Vorurteile in den Daten überhaupt auffallen", sagte die KI-Expertin und Gründerin des Textanalyse-Start-ups Datanizing, Stephanie Fischer, im Gespräch mit Golem.de.

Vielfalt in den Teams bringt den entscheidenden Fortschritt. Nur verschiedene Blickwinkel verhindern Vorurteile der KI - und zwar schon, bevor es an den Code geht. Denn klar ist, dass wohl die wenigsten Softwareanbieter absichtlich gegen das Diskriminierungsverbot aus Artikel 3 des Grundgesetzes verstoßen.

"Die Fehlerquellen erscheinen zwar im Nachhinein häufig als offensichtlich, im Vorfeld werden sie jedoch schlicht nicht erkannt", warnte der Branchenverband Bitkom bereits 2017 in einem Positionspapier (PDF). Solche Fehler passierten auch etablierten Unternehmen mit ausgeprägter Expertise in IT und KI.

In der Theorie ist das Problem bekannt. Softwareanbieter wie Amazon, Microsoft und IBM unternehmen immer wieder Lösungsversuche, allerdings mit wenig Erfolg. Ein Beispiel hierfür ist Googles Vorstoß mit einem KI-Rat vor einem Jahr. Das Gremium sollte für Gleichberechtigung und Ethik eintreten, scheiterte aber nach nur einer Woche an Protesten der eigenen Belegschaft. Die Ursache war, dass mehrere Mitglieder selbst durch Ressentiments aufgefallen waren.

Googles Fehlschlag steht sinnbildlich für hartnäckige blinde Flecken in den Unternehmen - und zwar genau bei der Zusammensetzung ihrer KI-Teams. Selbst bei den Tech-Konzernen und Innovationstreibern der Branche herrscht Einheitlichkeit, wie das AI Now Institute mit einigen Zahlen belegt: Bei Facebook liegt der Frauenanteil in der KI-Forschung bei 15 Prozent, bei Google sind es 10 Prozent. Angestellte mit dunkler Hautfarbe machen beim Suchmaschinenkonzern gerade einmal einen Anteil von 2,5 Prozent aus, Facebook und Microsoft kommen jeweils auf 4 Prozent. Das harte Urteil der New Yorker Studienautorinnen lautet: Die KI-Branche steckt in einer Diversitätskrise.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Ein Knackpunkt sind die Trainingsdaten für maschinelles Lernen 
  1. 1
  2. 2
  3. 3
  4.  


Aktuell auf der Startseite von Golem.de
Probefahrt mit EQS
Mercedes schüttelt Tesla ab, aber nicht die Klimakrise

Der neue EQS von Mercedes-Benz widerlegt die Argumente vieler Elektroauto-Gegner. Auch die Komforttüren gefallen uns.
Ein Bericht von Friedhelm Greis

Probefahrt mit EQS: Mercedes schüttelt Tesla ab, aber nicht die Klimakrise
Artikel
  1. Wochenrückblick: Land unter
    Wochenrückblick
    Land unter

    Golem.de-Wochenrückblick Probleme mit der Infrastruktur im Flutgebiet und ein Weltraumflug: die Woche im Video.

  2. E-Scooter: Voi wird wegen angeblich unbegrenzter Fahrten abgemahnt
    E-Scooter
    Voi wird wegen angeblich unbegrenzter Fahrten abgemahnt

    Mit einer Tages- oder Monatskarte des E-Scooter-Anbieters Voi sollen Nutzer so viel fahren können, wie sie wollen - können sie aber nicht.

  3. Datenbank: Facebook braucht schon Jahre für MySQL-Update
    Datenbank
    Facebook braucht schon Jahre für MySQL-Update

    Das Update von MySQL 5.6 auf das aktuelle 8.0 laufe bei Facebook wegen vieler Probleme schon seit "einigen Jahren" und ist noch nicht fertig.

GodsBoss 18. Jun 2020

Ich habe nichts dagegen, dass Menschen und/oder Unternehmen Sanktionen erfahren, wenn...

janoP 12. Jun 2020

Ob die Ergebnisse einer selbstlernenden, auf künstlichen neuronalen Netzen basierenden KI...

Hotohori 11. Jun 2020

Ist natürlich auch ein Problem, die Erwartungshaltung der Menschen was die KI leisten...

Hotohori 11. Jun 2020

Stimmt, das kommt auch noch dazu... XD

Gole-mAndI 11. Jun 2020

Du hast das falsch verstanden. Der Prozess sieht kein Nachdenken vor, daher findet es...



  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Schnäppchen • 30% Rabatt auf Amazon Warehouse • ASUS TUF VG279QM 280 Hz 306,22€ • Fractal Design Meshify C Mini 69,90€ • Acer Nitro XF243Y 165Hz OC ab 169€ • Samsung C24RG54FQR 125€ • EA-Promo bei Gamesplanet • Alternate (u. a. Fractal Design Define S2 106,89€) • Roccat Horde Aimo 49€ [Werbung]
    •  /