• IT-Karriere:
  • Services:

Maschinelles Lernen: Gesichtserkennung ist zuverlässig - bei weißen Männern

Bei weißen Männern funktioniert Gesichtserkennung mit 99 Prozent Genauigkeit, ganz anders ist es bei schwarzen Frauen. Das zeigt die Studie einer MIT-Informatikerin, die Geschlechterzuordnung untersucht hat. Betroffen sind etwa Systeme von Microsoft und IBM.

Artikel veröffentlicht am ,
Schwarze Frauen werden sehr ungenau erkannt, weiße Männer nicht.
Schwarze Frauen werden sehr ungenau erkannt, weiße Männer nicht. (Bild: Joy Buolamwini/MIT)

Algorithmen zur Gesichtserkennung funktionieren nicht bei allen Hauttönen und Geschlechtern gleich gut. Das ergibt eine Studie der Informatikerin Joy Buolamwini des Massachusetts Institute of Technology (MIT) laut einem Bericht der New York Times. Boulamwini hat Algorithmen untersucht, die Gesichter einem Geschlecht zuordnen, und zwar die Machine-Learning-Systeme von Microsoft, IBM und Face++. Letzteres wird in Produkten von Kunden wie Lenovo und Dell verwendet.

Stellenmarkt
  1. HERMA GmbH, Filderstadt
  2. Deutsche Rentenversicherung Bund, Berlin

Demnach werden männliche weiße Personen von einigen viel genutzten Machine-Learning-Systemen am besten erkannt, die Fehlerquote wird umso höher, je dunkler die Hautfarbe und ist am höchsten bei schwarzen Frauen. Der Studie zufolge wurde das Geschlecht von etwa 99 Prozent der weißen Männer aus einer Stichprobe von 385 Fotos erkannt. Bei weißen Frauen sank die Quote bereits auf 93 Prozent, bei 296 ausgesuchten Bildern. Aus 318 Bildern wurden nur 88 Prozent der männlichen Personen mit dunklerer Hautfarbe auch als Männer erkannt. Bei 271 Bildern von dunkelhäutigen Frauen sind Gesichtserkennungsalgorithmen nur zu 75 Prozent akkurat.

Dabei erzielten die Algorithmen von Microsoft noch die besseren Ergebnisse gegenüber IBM und Face++: Sie erkannten 21 Prozent der dunkelhäutigen Frauen nicht, während die Fehlerquote bei den Konkurrenten um 35 Prozent lag. Bisher sei nur vermutet worden, dass Algorithmen bei verschiedenen Bevölkerungsgruppen unterschiedlich funktionierten, sagte Sorelle Friedler vom Haverford College der Zeitung. Die Studie weise den Zusammenhang erstmals empirisch nach.

Wenig Referenzmaterial bei dunkelhäutigen Frauen

Für die Ungenauigkeiten bei der Gesichtserkennung kommen verschiedene Gründe in Betracht. Zum einen sind Algorithmen nur so klug wie die ihnen zur Verfügung gestellten Daten - und spiegeln deren rassistische oder sexistische Tendenzen wider. So sind laut New York Times auf etwa 75 Prozent der Referenzbilder, die der Software zum Lernen bereitgestellt werden, Männer abgebildet. Davon sind wiederum 80 Prozent weiß. Die New York Times bezieht sich dabei auf eine weitere Forschungsstudie.

  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Weiße Männer werden zu einem Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Frauen werden zu 35 Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
  • Dunkelhäutigere Männer werden zu zwölf Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)
Weiße Frauen werden zu sieben Prozent nicht erkannt. (Bild: Joy Buolamwini/MIT)

Zum anderen könnten auch technische Aspekte einen Einfluss haben: So erleichtern Kontraste Algorithmen das Unterscheiden von Formen. Diese sind bei weißen Gesichtern höher. Außerdem könnte die Vielfalt der Frisuren bei Frauen die Zuordnung zu einem Geschlecht erschweren.

Buolamwini will das Bewusstsein in der Öffentlichkeit für die von ihr nachgewiesene Problematik wecken. Sie selbst habe als weibliche Afroamerikanerin während ihres Studiums erlebt, dass Algorithmen ihr Gesicht nicht erkannt hätten. Sie sagte der New York Times: "Okay, das ist ernst, Zeit, etwas zu tun". Das Ergebnis: die Algorithmic Justice League, ein Projekt, das sich dem Problem widmen soll.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Top-Angebote
  1. (aktuell u. a. Alphacool Eissturm Hurricane Copper 45 2x 140 mm für 164,90€ + Versand)
  2. (u. a. bis zu 27% auf Raspberry Pi und 20% auf TP-Link)
  3. (aktuell u. a. Amazon-Geräte reduziert, z. B. Kindle, Echo Show, Fire und Fire TV Stick)
  4. (aktuell u. a. 2x SanDisk Ultra microSDXC 64 GB für 17€ statt ca. 22€ im Vergleich und ASUS...

gfa-g 12. Okt 2018

Schlechtere Gesichtserkennung bedeutet auch weniger Überwachungsmöglichkeiten.

beuteltier 11. Okt 2018

Finde ich nicht. Die Übertragung "nur weil es eine ungleichverteilung der Quantität in...

FedoraUser 14. Feb 2018

+1

whgreiner 13. Feb 2018

Leute, ich hab endlich die ultimative Lösung für das Problem gefunden: Hautfarbe ist...

pigzagzonie 13. Feb 2018

Ich wäre ja eher froh.


Folgen Sie uns
       


Cirrus7 Incus A300 - Test

Wir testen den Incus A300 von Cirrus7, einen passiv gekühlten Mini-PC für AMDs Ryzen 2000G/3000G.

Cirrus7 Incus A300 - Test Video aufrufen
    •  /