Zum Hauptinhalt Zur Navigation

Deep Learning: Echte Gesichter aus KI-Fake-Generatoren identifizierbar

Deep-Learning -Modelle verraten wohl deutlich mehr über ihr Innenleben, als angenommen. Dazu können auch echte Trainingsdaten gehören.
/ Sebastian Grüner
1 Kommentare News folgen (öffnet im neuen Fenster)
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten. (Bild: Disney/ETH Zürich)
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten. Bild: Disney/ETH Zürich

Mithilfe von Webseiten wie This Person Does Not Exist und dazugehörigen Machine-Learning-Modellen sollen sich schnell und leicht Gesichter generieren lassen, die nicht zu echten Personen gehören, sondern allein künstlich erstellt sind. Ein Forschungsteam konnte nun aber zeigen(öffnet im neuen Fenster) , dass die erzeugten Gesichter gar nicht so künstlich sind, wie erwartet. Das berichtet das Magazin Technology Review(öffnet im neuen Fenster) .

Demnach sehen die erzeugten Gesichter in vielen Fällen jenen Gesichtern sehr ähnlich, deren Aufnahmen als Trainingsdaten für das eigentliche Modell genutzt worden sind. Die falschen Gesichter könnten so echte Identitäten preisgeben. Laut Technology Review sei diese Arbeit eine weiterer wichtiger Beleg dafür, dass Machine-Learning-Modelle doch viel mehr über ihr Innenleben und ihre Ausgangsdaten verraten, als von vielen angenommen.

Im Falle der Gesichter nutzte das Forschungsteam einen sogenannten Membership-Angriff, um herauszufinden, ob und welche Gesichter eventuell in den Trainingsdaten vorhanden sind. Dabei wird ausgenutzt, dass ein Modell jene Daten, mit denen es trainiert worden ist, leicht anders behandelt, als unbekannte Daten. Dem Team gelang es darüber hinaus auch, ähnliche Aufnahmen in den Trainingsdaten zu erkennen, die letztlich zu gleichen Personen gehörten. Dies gelang wiederum über die generierten Gesichter, die dann kaum zufällig waren, sondern vielmehr große Ähnlichkeit mit den Ausgangsdaten aufwiesen.

Datenlecks über weitere Techniken möglich

In einer weiteren Forschungsarbeit(öffnet im neuen Fenster) , über die Technology Review berichtet, ist es gar gelungen, direkt die Trainingsdaten aus dem Modell selbst wiederherzustellen. Dafür sind die einzelnen Schritte, die das Modell durchläuft, zurückverfolgt und rückwärts angewendet worden. Die so gewonnenen Bilder sehen denen der echten Trainingsdaten sehr ähnlich.

Unabhängig von den konkreten Beispielen gibt die Arbeit einen Anhaltspunkt dafür, dass Ähnliches auch mit anderen produktiv genutzten Modellen möglich sein könnte. Etwa im Falle von medizinischen Daten könnte dies gravierende Folgen für die Betroffenen haben, wenn ihre Identitäten bekannt würden. Ob es möglich ist, diese Art des Datenleaks über die Modelle selbst zu verhindern, bleibt Teil künftiger Forschungsarbeiten.


Relevante Themen