Gesichtserkennung: Wir fälschen dein Gesicht

Biometrische Systeme sind praktisch: Der Nutzer meldet sich mit einem Körperteil an, etwa seinem Gesicht. Solche Systeme lassen sich aber relativ gut austricksen.

Artikel veröffentlicht am ,
Gesichtserkennung: Weitere Merkmale sind notwendig
Gesichtserkennung: Weitere Merkmale sind notwendig (Bild: Ian Waldie/Getty Images)

Sich mit dem Gesicht zu identifizieren, ist sicher, weil ein Gesicht lässt sich nicht fälschen. Doch, sagen Forscher der Universität von North Carolina in Chapel Hill. Sie haben ein Gesicht als virtuelles 3D-Modell nachgebaut und damit mehrere Gesichtserkennungssysteme überlistet.

Als Ausgangsmaterial nahmen die Forscher um Yi Xu Bilder einer Person. Ein Teil der Bilder stammte aus dem Internet. Einen anderen Satz Bilder nahmen sie eigens für das Experiment auf. Daraus erstellten sie ein genaues 3D-Bild des Kopfes des Probanden. Das 3D-Bild luden sie auf ein Smartphone, das sie vor die Kamera hielten.

Das Bild muss sich bewegen

Mit einem ganz normalen Foto lassen sich die Gesichtserkennungssysteme inzwischen nicht mehr austricksen. Sie verlangen Bewegungen. Aber ein Video allein funktioniere auch nicht gut, da die Systeme bestimmte Bewegungen verlangten und prüften, ob diese auch stimmig seien, erklären die Forscher.

Das ermöglicht ein Smartphone: Das 3D-Modell des Kopfes auf dem Bildschirm dreht sich mit den Bewegungen des Mobilgeräts. Das überzeugte die fünf von den Forschern getesteten Systeme: 1U App, Bio ID, Key Lemon, Mobius und True Key.

Gesichtserkennung lässt sich austricksen

Die sind eigentlich dazu gedacht, Smartphones oder Computer vor unberechtigtem Zugriff zu schützen. Sie ließen sich mit den Bildern jedoch relativ leicht austricksen. Die Quote der Erfolge mit hochauflösenden, speziell aufgenommenen Bildern lag bei 100 Prozent.

Mit den Bildern, die sie aus dem Internet hatten, etwa aus sozialen Medien, waren die Forscher nicht ganz so erfolgreich: Hier lag Quote zwischen 55 Prozent bei Bio ID und 85 Prozent bei Key Lemon. Lediglich 1U App ließ sich mit diesen Bildern nicht austricksen und verwehrte den Zugang. Der Grund dafür war jedoch die schlechte Usability der beiden Systeme.

Kamera-basierte Authentifizierungssysteme haben eine Schwachstelle

Virtual U nennen die Forscher ihren Spoofing-Angriff mit VR auf die Gesichtserkennungssysteme. Vorgestellt haben sie ihn kürzlich auf der Konferenz Usenix. Virtual U offenbare eine Schwäche in Authentifizierungssystemen, die mit Kameras arbeiteten, schreiben die Forscher in ihrem Aufsatz.

Um vor dieser Art von Angriffen geschützt zu sein, brauchten die Systeme weitere verifizierbare Daten. Eine Möglichkeit könnte sein, das Gesicht anzustrahlen und zu überprüfen, wie es angestrahlt wird. Eine andere wäre der Einsatz einer Infrarot-Kamera, die ein Wärmebild des Gesichts aufnimmt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Automobil
Keine zwei Minuten, um einen Tesla Model 3 zu hacken

Bei der Hacking-Konferenz Pwn2Own 2023 hat ein Forschungsteam keine zwei Minuten benötigt, um ein Tesla Model 3 zu hacken. Das brachte dem Team jede Menge Geld und einen neuen Tesla ein.

Automobil: Keine zwei Minuten, um einen Tesla Model 3 zu hacken
Artikel
  1. Fiktive Szenarien und Stereotype: AfD nutzt KI-Fotos für propagandistische Zwecke
    Fiktive Szenarien und Stereotype
    AfD nutzt KI-Fotos für propagandistische Zwecke

    Politiker der Alternative für Deutschland (AfD) nutzen realistische KI-Bilder, um Stimmung zu machen. Die Bilder sind kaum von echten Fotos zu unterscheiden.

  2. Java 20, GPT-4, Typescript, Docker: Neue Java-Version und AI everwhere
    Java 20, GPT-4, Typescript, Docker
    Neue Java-Version und AI everwhere

    Dev-Update Oracle hat Java 20 veröffentlicht. Enthalten sind sieben JEPs aus drei Projekten. Dev-News gab es diesen Monat auch in Sachen Typescript, Docker und KI in Entwicklungsumgebungen.
    Von Dirk Koller

  3. Socket: ChatGPT findet Malware in NPM- und Python-Paketen
    Socket
    ChatGPT findet Malware in NPM- und Python-Paketen

    Der Anbieter eines Sicherheitsscanners, Socket, nutzt den Chatbot von OpenAI auch zur Untersuchung von Paketen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial SSD 1TB/2TB bis -43% • RAM im Preisrutsch • RTX 4090 erstmals unter 1.700€ • MindStar: iPhone 14 Pro Max 1TB 1.599€ • SSDs & Festplatten bis -60% • AOC 34" UWQHD 279€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /