• IT-Karriere:
  • Services:

Gesichtserkennung: Wenn das Gesicht die politische Einstellung verrät

Eine Studie erkennt mit maschinellem Lernen die politische Einstellung am Gesicht - und warnt vor dem Einsatz von Gesichtserkennung.

Artikel von veröffentlicht am
Mit Algorithmen lässt sich vieles korrelieren - auch Gesichter und politische Einstellung.
Mit Algorithmen lässt sich vieles korrelieren - auch Gesichter und politische Einstellung. (Bild: Gerd Altmann/Pixabay)

Ein Muster in einem großen Datenberg zu finden, gehört in der IT heute zum Alltag. Nahezu alles lässt sich mittlerweile mit Big Data korrelieren, die passenden Algorithmen vorausgesetzt. Entsprechend weitreichende und umstrittene Forschungsvorhaben lassen sich umsetzen, indem man beispielsweise mittels Gesichtserkennung das Aussehen von Menschen mit ihrer politischen Einstellung korreliert.

Stellenmarkt
  1. ALDI International Services GmbH & Co. oHG, Mülheim an der Ruhr, Düsseldorf, Dortmund, Duisburg
  2. Computacenter AG & Co. oHG, München

Ein so trainierter Algorithmus kann anschließend mit einer bestimmten Wahrscheinlichkeit die politische Einstellung vom Gesicht ablesen. Genau das hat Michal Kosinski, Professor an der Stanford Universität, in einem Forschungsvorhaben umgesetzt. Mit den Ergebnissen möchte er vor allem eines: warnen. Die Studienergebnisse wurden im Nature Journal Scientific Reports veröffentlicht. Zuerst hatte das Onlinemagazin Techcrunch berichtet.

Es ist nicht die erste umstrittene Studie von Kosinski. Mit maschinellem Lernen verbindet er alltägliche Informationen, die Menschen hinterlassen - beispielsweise Likes bei Facebook - mit Aussagen über die sexuelle Orientierung, den Beziehungsstatus, den Drogenkonsum, den Intelligenzquotienten, die psychische Gesundheit, politische Einstellungen und vieles mehr. Kosinskis Forschung war die Grundlage für die Firma Cambridge Analytica, die einen Skandal um Facebook, die US-Präsidentschaftswahl und den Brexit verursachte.

Mit maschinellem Lernen Daten korrelieren

Bereits 2013 schrieb Kosinski in einem seiner Aufsätze, die Anwendung seiner Forschung könne eine "Gefahr für das Wohlergehen, die Freiheit oder sogar das Leben von Menschen darstellen". Sieben Jahre später führt er wieder ein solches Forschungsprojekt durch. Er analysiert über eine Million Gesichtsfotos von Menschen, deren politische Einstellung er zuvor abgefragt hatte: liberal oder konservativ.

Die Bilder der Personen stammen von Dating-Seiten aus den USA, Kanada und Großbritannien sowie von US-amerikanischen Facebook-Nutzern. Anschließend sucht er mittels einer Open-Source-Gesichtserkennungssoftware nach einem Muster, einer Korrelation zwischen Gesicht und politischer Einstellung und er findet einen Zusammenhang.

Dabei werden die Gesichter nicht unbedingt mit für Menschen intuitiven Merkmalen wie der Augenfarbe oder dem Nasentyp vermessen, sondern eher mit computerbezogenen Konzepten. Eine Gesichtserkennungssoftware erkennt eine Katze nicht an den Merkmalen, an denen ein Mensch sie erkennen würde. Entsprechend weist Kosinski auch den Vorwurf einer Phrenologie von sich, bei der aus der Schädelform eines Menschen Attribute in dessen Verhalten und Einstellung abgeleitet werden. Das sei die algorithmische Vermessung der Bilder eben nicht.

Anschließend testet er den durch maschinelles Lernen ermittelten Algorithmus mit zwei Bildern von Personen etwa gleich Alters, gleichen Geschlechts und gleicher ethnischer Zugehörigkeit, die jeweils unterschiedliche politische Einstellungen haben.

Die Ausgangswahrscheinlichkeit, also ein Bild ganz ohne Algorithmus zufällig auszuwählen, liegt bei 50 Prozent - wie bei einem Münzwurf. Menschen sind bei der Einschätzung der Bilder mit 55 Prozent nur wenig besser als der Zufall, während Kosinskis Algorthimus mit einer Wahrscheinlichkeit von 71 Prozent deutlich höher lag.

Gesichtserkennung als Gefahr

Das ist zwar kein herausragendes Ergebnis - immerhin liegt der Algorithmus nur in drei von vier Fällen richtig - dennoch deutlich signifikant. 2017 hatte Kosinski eine ähnliche Studie durchgeführt, bei der er die sexuelle Orientierung mittels Gesichtserkennung korrelierte. Seine Forschung illustriert, wie weit Big Data und Korrelationen gehen und welche Gefahr sie für Menschen bedeuten können. Man stelle sich nur vor, solche Algorithmen fänden in Gesellschaften Anwendung, in denen Homosexualität strafbar ist. Oder sie würden angewendet, um politische Gegner zu identifizieren.

Menschen neigen ohnehin dazu, die algorithmischen Ergebnisse zu verkennen und als Wahrheit zu behandeln. Dabei handelt es sich schlicht um Wahrscheinlichkeiten auf der Basis von Mustern. Ob ein Mensch wirklich konservativ, liberal, hetero- oder homosexuell ist, sagen sie nicht.

Doch schon heute beeinflussen uns genau solche Berechnungen, sei es bei der Internetwerbung, die herausrechnet, wofür wir gerade besonders empfänglich sind, im Einstellungsverfahren oder bei der Aushöhlung demokratischer Prozesse. In Zukunft wird es mit der zunehmenden Überwachung und der zunehmenden Menge anfallender Daten, immer mehr Systeme geben, die aufgrund von berechneter Wahrscheinlichkeiten über unser Leben entscheiden.

"Schießen Sie nicht auf den Überbringer der Botschaft", sagt Kosinski. "In meiner Arbeit warne ich vor weit verbreiteten Algorithmen zur Gesichtserkennung. Besorgniserregend ist, dass diese KI-Physiognomiker nun eingesetzt werden, um intime Merkmale von Menschen zu beurteilen - Wissenschaftler, politische Entscheidungsträger und Bürger sollten dies zur Kenntnis nehmen."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 9,29€
  2. (u. a. Code Vein - Deluxe Edition für 23,99€, Railway Empire - Complete Collection für 23...

User_x 21. Jan 2021 / Themenstart

Na jetzt hör mal mit den Einzelschicksalen auf. immerhin gibt ist die ja auch jetzt schon...

andkleves 20. Jan 2021 / Themenstart

Klingt schrecklich: die Nazis waren ja große Fans der Phrenologie (nämlich die...

oleid 20. Jan 2021 / Themenstart

Politische Einstellung ist hier eher sehr grob. Und vermutlich auf die USA...

bentol 19. Jan 2021 / Themenstart

Im Prinzip schon, aber wohl etwas zu schnell. Ich gelobe Besserung!

Kommentieren


Folgen Sie uns
       


Die Tesla-Baustelle von oben (Januar-November 2020)

Wir haben den Fortschritt in Grünheide dokumentiert.

Die Tesla-Baustelle von oben (Januar-November 2020) Video aufrufen
Bill Gates: Mit Technik gegen die Klimakatastrophe
Bill Gates
Mit Technik gegen die Klimakatastrophe

Bill Gates' Buch über die Bekämpfung des Klimawandels hat Schwächen, es lohnt sich aber trotzdem, dem Microsoft-Gründer zuzuhören.
Eine Rezension von Hanno Böck

  1. Microsoft-Gründer Bill Gates startet Podcast

MCST Elbrus: Die Zukunft von Russlands eigenen Prozessoren
MCST Elbrus
Die Zukunft von Russlands eigenen Prozessoren

32 Kerne für Server-CPUs, eine Videobeschleunigung für Notebooks und sogar SSDs: In Moskau wird die Elbrus-Plattform vorangetrieben.
Ein Bericht von Marc Sauter

  1. Anzeige Verkauf von AMDs Ryzen-5000-Serie startet
  2. Alder Lake S Intel bestätigt x86-Hybrid-Kerne für Desktop-CPUs
  3. Core i5-L16G7 (Lakefield) im Test Intels x86-Hybrid-CPU analysiert

Videokonferenzen: Bessere Webcams, bitte!
Videokonferenzen
Bessere Webcams, bitte!

Warum sehen in Videokonferenzen immer alle schlecht aus? Die Webcam-Hersteller sind (oft) schuld.
Ein IMHO von Martin Wolf

  1. Webcam im Eigenbau Mit wenigen Handgriffen wird die Pi HQ Cam zur USB-Kamera

    •  /