Gesichtserkennung: Wenn das Gesicht die politische Einstellung verrät

Eine Studie erkennt mit maschinellem Lernen die politische Einstellung am Gesicht - und warnt vor dem Einsatz von Gesichtserkennung.

Artikel von veröffentlicht am
Mit Algorithmen lässt sich vieles korrelieren - auch Gesichter und politische Einstellung.
Mit Algorithmen lässt sich vieles korrelieren - auch Gesichter und politische Einstellung. (Bild: Gerd Altmann/Pixabay)

Ein Muster in einem großen Datenberg zu finden, gehört in der IT heute zum Alltag. Nahezu alles lässt sich mittlerweile mit Big Data korrelieren, die passenden Algorithmen vorausgesetzt. Entsprechend weitreichende und umstrittene Forschungsvorhaben lassen sich umsetzen, indem man beispielsweise mittels Gesichtserkennung das Aussehen von Menschen mit ihrer politischen Einstellung korreliert.

Stellenmarkt
  1. Serviceexperte (m/w/d) IT Identity Management (IDM) & AD
    Dürr IT Service GmbH, Bietigheim-Bissingen
  2. Senior Security Consultant (m/w/d)
    NTT Germany AG & Co. KG, Bad Homburg
Detailsuche

Ein so trainierter Algorithmus kann anschließend mit einer bestimmten Wahrscheinlichkeit die politische Einstellung vom Gesicht ablesen. Genau das hat Michal Kosinski, Professor an der Stanford Universität, in einem Forschungsvorhaben umgesetzt. Mit den Ergebnissen möchte er vor allem eines: warnen. Die Studienergebnisse wurden im Nature Journal Scientific Reports veröffentlicht. Zuerst hatte das Onlinemagazin Techcrunch berichtet.

Es ist nicht die erste umstrittene Studie von Kosinski. Mit maschinellem Lernen verbindet er alltägliche Informationen, die Menschen hinterlassen - beispielsweise Likes bei Facebook - mit Aussagen über die sexuelle Orientierung, den Beziehungsstatus, den Drogenkonsum, den Intelligenzquotienten, die psychische Gesundheit, politische Einstellungen und vieles mehr. Kosinskis Forschung war die Grundlage für die Firma Cambridge Analytica, die einen Skandal um Facebook, die US-Präsidentschaftswahl und den Brexit verursachte.

Mit maschinellem Lernen Daten korrelieren

Bereits 2013 schrieb Kosinski in einem seiner Aufsätze, die Anwendung seiner Forschung könne eine "Gefahr für das Wohlergehen, die Freiheit oder sogar das Leben von Menschen darstellen". Sieben Jahre später führt er wieder ein solches Forschungsprojekt durch. Er analysiert über eine Million Gesichtsfotos von Menschen, deren politische Einstellung er zuvor abgefragt hatte: liberal oder konservativ.

Golem Akademie
  1. Microsoft 365 Security Workshop
    27.-29. Oktober 2021, online
  2. Penetration Testing Fundamentals
    17.-18. Januar 2022, online
  3. CEH Certified Ethical Hacker v11
    8.-12. November 2021, online
Weitere IT-Trainings

Die Bilder der Personen stammen von Dating-Seiten aus den USA, Kanada und Großbritannien sowie von US-amerikanischen Facebook-Nutzern. Anschließend sucht er mittels einer Open-Source-Gesichtserkennungssoftware nach einem Muster, einer Korrelation zwischen Gesicht und politischer Einstellung und er findet einen Zusammenhang.

Dabei werden die Gesichter nicht unbedingt mit für Menschen intuitiven Merkmalen wie der Augenfarbe oder dem Nasentyp vermessen, sondern eher mit computerbezogenen Konzepten. Eine Gesichtserkennungssoftware erkennt eine Katze nicht an den Merkmalen, an denen ein Mensch sie erkennen würde. Entsprechend weist Kosinski auch den Vorwurf einer Phrenologie von sich, bei der aus der Schädelform eines Menschen Attribute in dessen Verhalten und Einstellung abgeleitet werden. Das sei die algorithmische Vermessung der Bilder eben nicht.

Anschließend testet er den durch maschinelles Lernen ermittelten Algorithmus mit zwei Bildern von Personen etwa gleich Alters, gleichen Geschlechts und gleicher ethnischer Zugehörigkeit, die jeweils unterschiedliche politische Einstellungen haben.

Die Ausgangswahrscheinlichkeit, also ein Bild ganz ohne Algorithmus zufällig auszuwählen, liegt bei 50 Prozent - wie bei einem Münzwurf. Menschen sind bei der Einschätzung der Bilder mit 55 Prozent nur wenig besser als der Zufall, während Kosinskis Algorthimus mit einer Wahrscheinlichkeit von 71 Prozent deutlich höher lag.

Gesichtserkennung als Gefahr

Das ist zwar kein herausragendes Ergebnis - immerhin liegt der Algorithmus nur in drei von vier Fällen richtig - dennoch deutlich signifikant. 2017 hatte Kosinski eine ähnliche Studie durchgeführt, bei der er die sexuelle Orientierung mittels Gesichtserkennung korrelierte. Seine Forschung illustriert, wie weit Big Data und Korrelationen gehen und welche Gefahr sie für Menschen bedeuten können. Man stelle sich nur vor, solche Algorithmen fänden in Gesellschaften Anwendung, in denen Homosexualität strafbar ist. Oder sie würden angewendet, um politische Gegner zu identifizieren.

Menschen neigen ohnehin dazu, die algorithmischen Ergebnisse zu verkennen und als Wahrheit zu behandeln. Dabei handelt es sich schlicht um Wahrscheinlichkeiten auf der Basis von Mustern. Ob ein Mensch wirklich konservativ, liberal, hetero- oder homosexuell ist, sagen sie nicht.

Doch schon heute beeinflussen uns genau solche Berechnungen, sei es bei der Internetwerbung, die herausrechnet, wofür wir gerade besonders empfänglich sind, im Einstellungsverfahren oder bei der Aushöhlung demokratischer Prozesse. In Zukunft wird es mit der zunehmenden Überwachung und der zunehmenden Menge anfallender Daten, immer mehr Systeme geben, die aufgrund von berechneter Wahrscheinlichkeiten über unser Leben entscheiden.

"Schießen Sie nicht auf den Überbringer der Botschaft", sagt Kosinski. "In meiner Arbeit warne ich vor weit verbreiteten Algorithmen zur Gesichtserkennung. Besorgniserregend ist, dass diese KI-Physiognomiker nun eingesetzt werden, um intime Merkmale von Menschen zu beurteilen - Wissenschaftler, politische Entscheidungsträger und Bürger sollten dies zur Kenntnis nehmen."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Macbook Pro
Apple bestätigt High Power Mode für M1 Max

Käufer des Macbook Pro mit M1 Max können wohl in MacOS Monterey per Klick noch mehr Leistung aus dem Gerät herausholen.

Macbook Pro: Apple bestätigt High Power Mode für M1 Max
Artikel
  1. Klage: Google soll E-Privacy und Werbemarkt manipuliert haben
    Klage
    Google soll E-Privacy und Werbemarkt manipuliert haben

    Mehrere US-Bundesstaaten haben Klage gegen Google eingereicht. Das Unternehmen rühmt sich derweil, Regulierungen verlangsamt zu haben.

  2. Bundesregierung: Autobahn App 2.0 im ersten Quartal 2022 geplant
    Bundesregierung
    Autobahn App 2.0 im ersten Quartal 2022 geplant

    Die Opposition kritisiert die massiven Kosten, Nutzer bewerten die App schlecht. Dennoch soll die Autobahn App nun erweitert werden.

  3. Silence S04: Günstiges Elektroauto mit herausnehmbaren Akku vorgestellt
    Silence S04
    Günstiges Elektroauto mit herausnehmbaren Akku vorgestellt

    Beim Elektroauto Silence S04 kann der Nutzer den Akku selbst wechseln, wenn dieser leergefahren ist.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Saturn-Gutscheinheft mit Direktabzügen und Zugaben • Nur noch heute: Mehrwertsteuer-Aktion bei MediaMarkt • Roccat Suora 43,99€ • Razer Goliathus Extended Chroma Mercury ab 26,99€ • Seagate SSDs & HDDs günstiger • Alternate (u. a. ASUS ROG Strix Z590-A Gaming WIFI 258€) [Werbung]
    •  /