Gesichtserkennung: Wir fälschen dein Gesicht
Biometrische Systeme sind praktisch: Der Nutzer meldet sich mit einem Körperteil an, etwa seinem Gesicht. Solche Systeme lassen sich aber relativ gut austricksen.

Sich mit dem Gesicht zu identifizieren, ist sicher, weil ein Gesicht lässt sich nicht fälschen. Doch, sagen Forscher der Universität von North Carolina in Chapel Hill. Sie haben ein Gesicht als virtuelles 3D-Modell nachgebaut und damit mehrere Gesichtserkennungssysteme überlistet.
Als Ausgangsmaterial nahmen die Forscher um Yi Xu Bilder einer Person. Ein Teil der Bilder stammte aus dem Internet. Einen anderen Satz Bilder nahmen sie eigens für das Experiment auf. Daraus erstellten sie ein genaues 3D-Bild des Kopfes des Probanden. Das 3D-Bild luden sie auf ein Smartphone, das sie vor die Kamera hielten.
Das Bild muss sich bewegen
Mit einem ganz normalen Foto lassen sich die Gesichtserkennungssysteme inzwischen nicht mehr austricksen. Sie verlangen Bewegungen. Aber ein Video allein funktioniere auch nicht gut, da die Systeme bestimmte Bewegungen verlangten und prüften, ob diese auch stimmig seien, erklären die Forscher.
Das ermöglicht ein Smartphone: Das 3D-Modell des Kopfes auf dem Bildschirm dreht sich mit den Bewegungen des Mobilgeräts. Das überzeugte die fünf von den Forschern getesteten Systeme: 1U App, Bio ID, Key Lemon, Mobius und True Key.
Gesichtserkennung lässt sich austricksen
Die sind eigentlich dazu gedacht, Smartphones oder Computer vor unberechtigtem Zugriff zu schützen. Sie ließen sich mit den Bildern jedoch relativ leicht austricksen. Die Quote der Erfolge mit hochauflösenden, speziell aufgenommenen Bildern lag bei 100 Prozent.
Mit den Bildern, die sie aus dem Internet hatten, etwa aus sozialen Medien, waren die Forscher nicht ganz so erfolgreich: Hier lag Quote zwischen 55 Prozent bei Bio ID und 85 Prozent bei Key Lemon. Lediglich 1U App ließ sich mit diesen Bildern nicht austricksen und verwehrte den Zugang. Der Grund dafür war jedoch die schlechte Usability der beiden Systeme.
Kamera-basierte Authentifizierungssysteme haben eine Schwachstelle
Virtual U nennen die Forscher ihren Spoofing-Angriff mit VR auf die Gesichtserkennungssysteme. Vorgestellt haben sie ihn kürzlich auf der Konferenz Usenix. Virtual U offenbare eine Schwäche in Authentifizierungssystemen, die mit Kameras arbeiteten, schreiben die Forscher in ihrem Aufsatz.
Um vor dieser Art von Angriffen geschützt zu sein, brauchten die Systeme weitere verifizierbare Daten. Eine Möglichkeit könnte sein, das Gesicht anzustrahlen und zu überprüfen, wie es angestrahlt wird. Eine andere wäre der Einsatz einer Infrarot-Kamera, die ein Wärmebild des Gesichts aufnimmt.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Ich pflichte meinen Vorpostern ganz bei. Allerdings gäbe es IMO ähnliche Probleme auch...
Bis zu dem "Toast" konnte man sich der Sichtweise deines Betrages durchaus anschließen...
Wir haben die Überschrift geändert. wp (Golem.de)
Egal welches? ;-)