Machine Learning: Twitter bestätigt Vorurteile in seiner Bildauswahl
Nutzer zeigten Vorurteile in Twitters Bildzuschnitt. Das Unternehmen hat das nun untersucht und reduziert den Einsatz deutlich.

Nach Kritik und Experimenten mit dem automatischen Bildzuschnitt in seinem Dienst hat Twitter den zugrundeliegenden Machine-Learning-Algorithmus untersucht und kommt zu dem Ergebnis: Die Aufgabe der Auswahl eines Ausschnitts sollte besser "von den Leuten, die unsere Produkten nutzen", durchgeführt werden als von der automatisierten Technik.
Der Grund dafür ist, dass der für die Bildauswahl genutzte Algorithmus vorurteilsbehaftet arbeitet. Bei den von Nutzern im vergangenen Herbst dazu zahlreich veröffentlichten Testbildern zeigte sich schon, dass die Bildauswahl offenbar Gesichter Weißer Menschen bevorzugt. Der von Twitter genutzte Machine-Learning-Algorithmus steht damit in einer Reihe weiterer ähnlicher Fehler und Probleme, die in der Vergangenheit immer wieder als rassistisch kritisiert wurden.
Vorurteile bestätigt
Genau das bestätigt nun auch die Untersuchung von Twitter selbst. Demnach bevorzugte die Bildauswahl Frauen gegenüber Männern und Weiße Menschen gegenüber Schwarzen Menschen. Den als männlichen Blick (Male Gaze) beschriebenen Eindruck, also dass etwa der Brustbereich oder die Beine von Frauen für den Bildzuschnitt bevorzugt würden, konnte das Twitter-Team dagegen nicht bestätigen. Die Auswahl habe hier nicht auf physischen Eigenschaften der Menschen beruht, sondern etwa auf Zahlen auf Sporttrikots.
Zuletzt hatte der Anbieter 2018 sein Modell zum Zuschnitt der Bilder umgestellt. Dieses soll hervorspringende Teile eines Bildes bevorzugen, was wiederum auf einer Eye-Tracking-Studie mit nur sehr wenigen Teilnehmern und Bildern zu basieren scheint. Das darauf trainierte Machine-Learning-Modell reproduziert also offenbar die Vorurteile der Menschen in der Ausgangsstudie. Zumindest ist die Bildauswahl eben nicht fair.
Twitter schreibt dazu: "Selbst wenn der Salienz-Algorithmus so angepasst würde, dass er die perfekte Gleichstellung zwischen Race und Geschlecht widerspiegelt, sind wir besorgt über den Repräsentationsschaden des automatisierten Algorithmus, wenn Personen sich nicht auf der Plattform so darstellen dürfen, wie sie es wünschen". Ebenso beinhalte die Nutzung von Salienz auch andere mögliche Nachteile, etwa eine Insensibilität in Bezug auf kulturelle Nuancen.
Die Lösung für das beschriebene Problem ist bei Twitter nun, soweit es geht, auf die die beschriebene automatische Bildauswahl zu verzichten. Nach einigen Experimenten hat der Anbieter deshalb vor einigen Wochen Änderungen ausgerollt, die Bilder in ihrer tatsächlichen Größe darstellt, sofern diese üblichen Bildformaten entspricht. Ebenso wird nun beim Erstellen eines Tweets das Bild so angezeigt, wie es letztlich auch nach der Veröffentlichung zu sehen ist.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Wenn Menschen Bildauschnitte bestimmen, nutzen sie mehr Daten als nur die reine...
Weil Brillenträger bevorzugt werden?