Deep Learning: Echte Gesichter aus KI-Fake-Generatoren identifizierbar

Deep-Learning-Modelle verraten wohl deutlich mehr über ihr Innenleben, als angenommen. Dazu können auch echte Trainingsdaten gehören.

Artikel veröffentlicht am ,
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten.
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten. (Bild: Disney/ETH Zürich)

Mithilfe von Webseiten wie This Person Does Not Exist und dazugehörigen Machine-Learning-Modellen sollen sich schnell und leicht Gesichter generieren lassen, die nicht zu echten Personen gehören, sondern allein künstlich erstellt sind. Ein Forschungsteam konnte nun aber zeigen, dass die erzeugten Gesichter gar nicht so künstlich sind, wie erwartet. Das berichtet das Magazin Technology Review.

Stellenmarkt
  1. Requirements Engineer (w/m/d) Softwareentwicklung
    SSI SCHÄFER IT Solutions GmbH, Dortmund, Giebelstadt
  2. Sachbearbeiter (w/m/d) IT-Betreuung und Teamassistenz Schulen
    KommunalBIT AöR, Fürth
Detailsuche

Demnach sehen die erzeugten Gesichter in vielen Fällen jenen Gesichtern sehr ähnlich, deren Aufnahmen als Trainingsdaten für das eigentliche Modell genutzt worden sind. Die falschen Gesichter könnten so echte Identitäten preisgeben. Laut Technology Review sei diese Arbeit eine weiterer wichtiger Beleg dafür, dass Machine-Learning-Modelle doch viel mehr über ihr Innenleben und ihre Ausgangsdaten verraten, als von vielen angenommen.

Im Falle der Gesichter nutzte das Forschungsteam einen sogenannten Membership-Angriff, um herauszufinden, ob und welche Gesichter eventuell in den Trainingsdaten vorhanden sind. Dabei wird ausgenutzt, dass ein Modell jene Daten, mit denen es trainiert worden ist, leicht anders behandelt, als unbekannte Daten. Dem Team gelang es darüber hinaus auch, ähnliche Aufnahmen in den Trainingsdaten zu erkennen, die letztlich zu gleichen Personen gehörten. Dies gelang wiederum über die generierten Gesichter, die dann kaum zufällig waren, sondern vielmehr große Ähnlichkeit mit den Ausgangsdaten aufwiesen.

Datenlecks über weitere Techniken möglich

In einer weiteren Forschungsarbeit, über die Technology Review berichtet, ist es gar gelungen, direkt die Trainingsdaten aus dem Modell selbst wiederherzustellen. Dafür sind die einzelnen Schritte, die das Modell durchläuft, zurückverfolgt und rückwärts angewendet worden. Die so gewonnenen Bilder sehen denen der echten Trainingsdaten sehr ähnlich.

Golem Akademie
  1. Netzwerktechnik Kompaktkurs
    8.-12. November 2021, online
  2. IT-Fachseminare der Golem Akademie
    Live-Workshops zu Schlüsselqualifikationen
  3. 1:1-Videocoaching mit Golem Shifoo
    Berufliche Herausforderungen meistern
Weitere IT-Trainings

Unabhängig von den konkreten Beispielen gibt die Arbeit einen Anhaltspunkt dafür, dass Ähnliches auch mit anderen produktiv genutzten Modellen möglich sein könnte. Etwa im Falle von medizinischen Daten könnte dies gravierende Folgen für die Betroffenen haben, wenn ihre Identitäten bekannt würden. Ob es möglich ist, diese Art des Datenleaks über die Modelle selbst zu verhindern, bleibt Teil künftiger Forschungsarbeiten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
New World im Test
Amazon liefert ordentlich Abenteuer

Konkurrenz für World of Warcraft und Final Fantasy 14: Amazon Games macht mit dem PC-MMORPG New World momentan vor allem Sammler glücklich.
Von Peter Steinlechner

New World im Test: Amazon liefert ordentlich Abenteuer
Artikel
  1. Nasa: Sonde Lucy erfolgreich zu Jupiter-Asteroiden gestartet
    Nasa
    Sonde Lucy erfolgreich zu Jupiter-Asteroiden gestartet

    Erstmals sollen Asteroiden in der Umlaufbahn des Jupiter untersucht werden. Der Start der Raumsonde Lucy ist laut Nasa geglückt.

  2. Pornoplattform: Journalisten wollen Xhamster-Eigentümer gefunden haben
    Pornoplattform
    Journalisten wollen Xhamster-Eigentümer gefunden haben

    Xhamster ist und bleibt Heimat für zahlreiche rechtswidrige Inhalte. Doch ohne zu wissen, wer profitiert, wusste man bisher auch nicht, wer verantwortlich ist.

  3. Whatsapp: Vater bekommt wegen eines Nacktfotos Ärger mit Polizei
    Whatsapp
    Vater bekommt wegen eines Nacktfotos Ärger mit Polizei

    Ein Vater nutzte ein 15 Jahre altes Nacktfoto seines Sohnes als Statusfoto bei Whatsapp. Nun läuft ein Kinderpornografie-Verfahren.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Cyber Week: Bis zu 40€ Rabatt auf Samsung-SSDs • ADATA XPG Spectrix D55 16-GB-Kit 3200 56,61€ • Crucial P5 Plus 1 TB 129,99€ • Kingston NV1 500 GB 35,99€ • Creative Sound BlasterX G5 89,99€ • Alternate (u. a. AKRacing Core SX 248,99€) • Gamesplanet Anniv. Sale Classic & Retro [Werbung]
    •  /