Zum Hauptinhalt Zur Navigation

Machine Learning: Software maskiert Gesichter mit anderen Gesichtern

Forscher arbeiten an einer Software , die die eigene Privatsphäre schützen soll. Deepprivacy maskiert das eigene Gesicht mit zufälligen anderen Gesichtern. Noch sieht das sehr surreal aus.
/ Oliver Nickel
13 Kommentare News folgen (öffnet im neuen Fenster)
Deepprivacy setzt Gesichter auch auf berühmte Personen. (Bild: Norwegian University of Science and Technology)
Deepprivacy setzt Gesichter auch auf berühmte Personen. Bild: Norwegian University of Science and Technology

Forscher arbeiten derzeit an einer Software, die das eigene Gesicht durch zufällige andere Gesichter aus einer Datenbank ersetzt. Das Programm Deepprivacy soll dem Schutz des eigenen Bildes und der Privatsphäre dienen. Es basiert auf einem Generative Adversarial Network und etwa einer Million verschiedener Bilder von Gesichtern. Die Forscher stellen das Dokument zum Projekt auf Arxiv(öffnet im neuen Fenster) zur Verfügung. Den Quellcode gibt es auf dem Entwicklerportal Github(öffnet im neuen Fenster) .

"Das Deepprivacy-GAN sieht niemals mit Privatsphäre verknüpfte Informationen und versichert ein vollkommen anonymisiertes Bild" , sagen die Forscher. Das IT-Magazin Motherboard(öffnet im neuen Fenster) zeigt einige Beispielbilder, bei denen etwa Ex-US-Präsident Barack Obama in einen kaukasisch aussehenden Mann umgewandelt wird. Ein animiertes GIF zeigt das System in Bewegung. Es wechselt das gezeichnete Gesicht mehrmals in der Sekunde. Das sieht zurzeit noch sehr experimentell aus.

Zum Guten oder Schlechten nutzen

In Zukunft sollen so erstellte Gesichter aber nicht mehr so stark wackeln und surreal erscheinen. Das Team zeigt zumindest, was mit einem solchen System möglich ist. Die Software rendert Gesichter bereits in Echtzeit auf das Quellmaterial. Dabei werden auch die Blickwinkel und Perspektiven beachtet.

"Unsere innere Gesichtsregion zu maskieren, kann Schutz gegen viele konventionelle Gesichtserkennungsalgorithmen bieten" , schreibt der Sicherheitsforscher Adam Harvey gegenüber Motherboard. Es sei dabei allerdings schwierig, den Schutz der sichtbaren Privatsphäre auch in Zukunft sicherzuhalten. Außerdem besteht immer die Gefahr, dass so eine Software für unmoralische oder kriminelle Zwecke genutzt werden kann, etwa wenn Einbrecher oder Täter nicht auf Sicherheitskameras erkannt werden können oder Menschen sich als andere Menschen ausgeben.


Relevante Themen