Rekognition: Amazons Gesichtserkennung hat Schwierigkeiten mit Frauen
Neue Probleme mit Amazons Gesichtserkennungssystem Rekognition: Das System hat Schwierigkeiten, Frauen von Männern zu unterscheiden. Das gilt besonders für Frauen mit dunkler Hautfarbe, mit der das System ohnehin Mühe hat. Amazon weist die Kritik zurück.

Probleme mit dunkler Hautfarbe hat sie schon länger. Jetzt kommen Probleme mit Frauen hinzu - erst recht mit Frauen dunkler Hautfarbe: Wissenschaftler des Massachusetts Institute of Technology (MIT) haben neue Schwachstellen in Amazons Gesichtserkennungssoftware Rekognition aufgedeckt.
Nach der Studie hat Rekognition Schwierigkeiten, Frauen als solche zu erkennen, in 19 Prozent der Fälle hielt es eine Frau für einen Mann. Noch schlechter war das Ergebnis bei Frauen mit dunkler Hautfarbe. Die hielt Rekognition sogar in 31 Prozent der Fälle für einen Mann.
Schon bei früheren Studien hatte sich gezeigt, dass Amazons Gesichtserkennungssoftware Probleme mit der Hautfarbe hat: Es identifiziert Menschen mit dunkler Haut häufiger falsch als solche mit heller Haut.
Bei der Geschlechtererkennung ist Rekognition deutlich schlechter als Systeme anderer Anbieter wie etwa Microsoft, IBM und Megvii, auch als Face++ bekannt. Diese drei hatten die MIT-Forscher im vergangenen Jahr kritisiert, weil ihre Software Schwierigkeiten hatte, schwarze Frauen zu erkennen. Alle drei reagierten jedoch und verbesserten ihre Software.
Anders Amazon: MIT-Studienleiterin Joy Buolamwini hatte Amazon-Chef Jeff Bezos im Juni vergangenen Jahres über die Ergebnisse informiert. Sie habe weder eine Antwort erhalten, noch habe Amazon das System verbessert, schreibt Buolamwini in einem Blogeintrag.
Gesichtsanalyse oder Gesichtserkennung?
Matt Wood, Leiter des Bereichs künstliche Intelligenz bei Amazon Web Services, verteidigte in einer Mitteilung das System. Die MIT-Forscher hätten die Gesichtsanalyse, nicht aber die Gesichtserkennung getestet, sagte er. Erstere identifiziere Gesichter in Videos oder Bildern und erfasse Attribute wie etwa, dass in dem Gesicht eine Brille vorhanden sei. Nur bei der Erkennung werde ein Gesicht gegen Gesichter auf den Fotos oder Videos abgeglichen.
Zudem hätten die MIT-Forscher eine ältere Version von Rekognition getestet. Amazon habe im November eine neue Version eingeführt. Bei eigenen Tests dieser Version habe Amazon keine Unterschiede bei der Erkennung des Geschlechts in den Ethnien gefunden.
US-Behörden nutzen Rekognition
Amazon hat Rekognition 2016 vorgestellt. Das System erkennt Menschen und Objekte in Videos und Bildern, wenn es über Vorlagen verfügt. Das Unternehmen vermarktet das System unter anderem an die Polizei. So ist es etwa bei der Polizei in Orlando, Florida, und im Sheriffbüro in Oregon im Einsatz.
Sehr zum Missfallen von Angestellten, Aktionären und Bürgerrechtlern: Die haben Amazon dafür mehrfach kritisiert. Sie befürchten, dass das System zur Überwachung eingesetzt wird und sehen darin eine Gefahr für die Privatsphäre der Bürger, gerade angesichts der aktuellen politischen Lage in den USA. Die Amazon-Geschäftsleitung lässt sich jedoch nicht beirren und hat angekündigt, Rekognition auch weiter an US-Behörden zu verkaufen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Negative Vorurteile schon. Und so wie OP sie geschrieben hat, meinte er das 104% negativ.
Richtig, bei einer Frau mit Glatze wird das halt auch sehr schwer wenn sie nicht...
Ist eigentlich auch egal, ob Amazon jetzt denkt es wäre ein Mann oder eine Frau. Für die...
So ganz glaube ich nicht, dass Mädchen vor der Pubertät so rangeln wie jungen. Oder mit...