Machine Learning: KI bewertet Frauen häufiger nach Aussehen
Automatische Bilderkennung kann zwar korrekt sein, aber trotzdem Vorurteile reproduzieren. Das zeigt eine Auswertung kommerzieller KI-Systeme.

Dass KI-Systeme nur so fair oder eben unfair sind wie die Menschen in der Gesellschaft, ist ein wiederkehrendes Problem von Machine-Learning-Systemen, was sich etwa vielfach an automatisierter Bilderkennung zeigt. Genau das hat ein internationales Forschungsteam mit Bildern der US-Kongressabgeordneten untersucht und kommt dabei zu dem Schluss, dass die Systeme zwar korrekt, aber dennoch vorurteilsbehaftet arbeiten können und damit bestehende Vorurteile reproduzieren, was sich etwa in Bezug auf das Äußere von Frauen zeige.
Bilder von Männern werden demnach häufig mit Labeln wie "offiziell" oder "Geschäftsperson" ausgezeichnet. Bei Frauen hingegen häufen sich Begriffe wie "Lächeln" oder andere Beschreibungen der Äußerlichkeiten. In der Arbeit heißt es: "Wir stellen fest, dass Bilder von Frauen dreimal mehr Anmerkungen zum Aussehen erhielten. Darüber hinaus werden Frauen in Bildern im Vergleich zu Männern wesentlich seltener erkannt."
Carsten Schwemmer, der am Gesis Leibniz-Institut für Sozialwissenschaften forscht und an den Arbeiten beteiligt war, sagte dem Magazin Wired: "Dies führt dazu, dass Frauen ein Stereotyp mit niedrigerem Status erhalten: Frauen sind dazu da, hübsch auszusehen, und Männer sind Wirtschaftsführer."
Unterschiede bei den Vorurteilen
Die Ergebnisse der Untersuchung unterscheiden sich dabei in der Tendenz nicht grundlegend bei den untersuchten Angeboten von Google, Microsoft und Amazon. "In jedem System gab es erhebliche geschlechtsspezifische Vorurteile, aber auch Unterschiede im spezifischen Inhalt und Ausmaß der Vorurteile", heißt es dazu in der wissenschaftlichen Arbeit. So hat die Bilderkennung von Amazon abgebildete Frauen etwa als minderjährig registriert, obwohl dies nicht der Fall war. Bei Männern kam dies nicht vor.
Ob und inwiefern sich diese Verfestigung von Vorurteilen in den Systemen überhaupt beheben lässt, ist weiter unklar. Auch deshalb haben einige Unternehmen bereits angekündigt, die Arbeiten etwa an Gesichtserkennung einzustellen, diese nur mit Gesetzesgrundlage einzusetzen oder zumindest die Zusammenarbeit mit Strafverfolgungsbehörden vorerst zu beenden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Absolut! Es ist die alte Leier: Frauen verdienen weniger als Männer. Klar, weil sie...
Das ist Quatsch, schön aussehen ist höchst subjektiv. Für mich sehen Leute im Anzug...
WAS IST ONLYFANS!!?
/kwt