• IT-Karriere:
  • Services:

Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern

Bei weißen Männern funktioniert Gesichtserkennung mit 99 Prozent Genauigkeit, ganz anders ist es bei schwarzen Frauen. Das zeigt die Studie einer MIT-Informatikerin, die Geschlechterzuordnung untersucht hat. Betroffen sind etwa Systeme von Microsoft und IBM.

Artikel veröffentlicht am ,
Schwarze Frauen werden sehr ungenau erkannt, weiße Männer nicht.
Schwarze Frauen werden sehr ungenau erkannt, weiße Männer nicht. (Bild: Joy Buolamwini/MIT)

Algorithmen zur Gesichtserkennung funktionieren nicht bei allen Hauttönen und Geschlechtern gleich gut. Das ergibt eine Studie der Informatikerin Joy Buolamwini des Massachusetts Institute of Technology (MIT) laut einem Bericht der New York Times. Boulamwini hat Algorithmen untersucht, die Gesichter einem Geschlecht zuordnen, und zwar die Machine-Learning-Systeme von Microsoft, IBM und Face++. Letzteres wird in Produkten von Kunden wie Lenovo und Dell verwendet.

Stellenmarkt
  1. websedit AG, Ravensburg
  2. Bundeskriminalamt, Wiesbaden

Demnach werden männliche weiße Personen von einigen viel genutzten Machine-Learning-Systemen am besten erkannt, die Fehlerquote wird umso höher, je dunkler die Hautfarbe und ist am höchsten bei schwarzen Frauen. Der Studie zufolge wurde das Geschlecht von etwa 99 Prozent der weißen Männer aus einer Stichprobe von 385 Fotos erkannt. Bei weißen Frauen sank die Quote bereits auf 93 Prozent, bei 296 ausgesuchten Bildern. Aus 318 Bildern wurden nur 88 Prozent der männlichen Personen mit dunklerer Hautfarbe auch als Männer erkannt. Bei 271 Bildern von dunkelhäutigen Frauen sind Gesichtserkennungsalgorithmen nur zu 75 Prozent akkurat.

Dabei erzielten die Algorithmen von Microsoft noch die besseren Ergebnisse gegenüber IBM und Face++: Sie erkannten 21 Prozent der dunkelhäutigen Frauen nicht, während die Fehlerquote bei den Konkurrenten um 35 Prozent lag. Bisher sei nur vermutet worden, dass Algorithmen bei verschiedenen Bevölkerungsgruppen unterschiedlich funktionierten, sagte Sorelle Friedler vom Haverford College der Zeitung. Die Studie weise den Zusammenhang erstmals empirisch nach.

Wenig Referenzmaterial bei dunkelhäutigen Frauen

Für die Ungenauigkeiten bei der Gesichtserkennung kommen verschiedene Gründe in Betracht. Zum einen sind Algorithmen nur so klug wie die ihnen zur Verfügung gestellten Daten - und spiegeln deren rassistische oder sexistische Tendenzen wider. So sind laut New York Times auf etwa 75 Prozent der Referenzbilder, die der Software zum Lernen bereitgestellt werden, Männer abgebildet. Davon sind wiederum 80 Prozent weiß. Die New York Times bezieht sich dabei auf eine weitere Forschungsstudie.

  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)

Zum anderen könnten auch technische Aspekte einen Einfluss haben: So erleichtern Kontraste Algorithmen das Unterscheiden von Formen. Diese sind bei weißen Gesichtern höher. Außerdem könnte die Vielfalt der Frisuren bei Frauen die Zuordnung zu einem Geschlecht erschweren.

Buolamwini will das Bewusstsein in der Öffentlichkeit für die von ihr nachgewiesene Problematik wecken. Sie selbst habe als weibliche Afroamerikanerin während ihres Studiums erlebt, dass Algorithmen ihr Gesicht nicht erkannt hätten. Sie sagte der New York Times: "Okay, das ist ernst, Zeit, etwas zu tun". Das Ergebnis: die Algorithmic Justice League, ein Projekt, das sich dem Problem widmen soll.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 19,99
  2. (-74%) 15,50€
  3. (-58%) 16,99€

gfa-g 12. Okt 2018

Schlechtere Gesichtserkennung bedeutet auch weniger Überwachungsmöglichkeiten.

beuteltier 11. Okt 2018

Finde ich nicht. Die Übertragung "nur weil es eine ungleichverteilung der Quantität in...

FedoraUser 14. Feb 2018

+1

whgreiner 13. Feb 2018

Leute, ich hab endlich die ultimative Lösung für das Problem gefunden: Hautfarbe ist...

pigzagzonie 13. Feb 2018

Ich wäre ja eher froh.


Folgen Sie uns
       


Brett Butterfield von Adobe zeigt KI-Bildersuche per Sprache (englisch)

Der Befehl: "Mehr Kaffee!" zeigt tatsächlich mehr Kaffee.

Brett Butterfield von Adobe zeigt KI-Bildersuche per Sprache (englisch) Video aufrufen
VW-Logistikplattform Rio: Mehr Fracht transportieren mit weniger Lkw
VW-Logistikplattform Rio
Mehr Fracht transportieren mit weniger Lkw

Im Online-Handel ist das Tracking einer Bestellung längst Realität. In der Speditionsbranche sieht es oft anders aus: Silo-Denken, viele Kleinunternehmen und Vorbehalte gegenüber der Digitalisierung bremsen den Fortschritt. Das möchte Rio mit seiner Cloud-Lösung und niedrigen Preisen ändern.
Ein Bericht von Dirk Kunde

  1. Vernetzte Mobilität Verkehrsunternehmen könnten Datenaustauschpflicht bekommen
  2. Studie Uber und Lyft verschlechtern den Stadtverkehr
  3. Diesel-Ersatz Baden-Württemberg beschafft Akku-Elektrotriebzüge Mireo

Jobs: Spielebranche sucht Entwickler (m/w/d)
Jobs
Spielebranche sucht Entwickler (m/w/d)

Die Hälfte aller Gamer ist weiblich. An der Entwicklung von Spielen sind aber nach wie vor deutlich weniger Frauen beteiligt.
Von Daniel Ziegener

  1. Medizinsoftware Forscher finden "rassistische Vorurteile" in Algorithmus
  2. Mordhau Toxische Spieler und Filter für Frauenhasser

Arbeitsklima: Schlangengrube Razer
Arbeitsklima
Schlangengrube Razer

Der Gaming-Zubehörspezialist Razer pflegt ein besonders cooles Image - aber Firmengründer und Chef Tan Min-Liang soll ein von Sexismus und Rassismus geprägtes Arbeitsklima geschaffen haben. Nach Informationen von Golem.de werden Frauen auch in Europa systematisch benachteiligt.
Ein Bericht von Peter Steinlechner

  1. Razer Blade Stealth 13 im Test Sieg auf ganzer Linie
  2. Naga Left-Handed Edition Razer will seine Linkshändermaus wieder anbieten
  3. Junglecat Razer-Controller macht das Smartphone zur Switch

    •  /