Deep Learning: Echte Gesichter aus KI-Fake-Generatoren identifizierbar

Deep-Learning-Modelle verraten wohl deutlich mehr über ihr Innenleben, als angenommen. Dazu können auch echte Trainingsdaten gehören.

Artikel veröffentlicht am ,
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten.
Diese Gesichter sind künstlich erzeugt, könnten aber etwas über die Ausgangsdaten verraten. (Bild: Disney/ETH Zürich)

Mithilfe von Webseiten wie This Person Does Not Exist und dazugehörigen Machine-Learning-Modellen sollen sich schnell und leicht Gesichter generieren lassen, die nicht zu echten Personen gehören, sondern allein künstlich erstellt sind. Ein Forschungsteam konnte nun aber zeigen, dass die erzeugten Gesichter gar nicht so künstlich sind, wie erwartet. Das berichtet das Magazin Technology Review.

Stellenmarkt
  1. IT-Administrator (m/w/d)
    Heinle, Wischer und Partner Freie Architekten GbR, Stuttgart, Berlin, Köln, Dresden
  2. Solution Architect (m/w/d) E-Commerce & Marketing Solutions
    Villeroy & Boch AG Hauptverwaltung, Mettlach, Köln
Detailsuche

Demnach sehen die erzeugten Gesichter in vielen Fällen jenen Gesichtern sehr ähnlich, deren Aufnahmen als Trainingsdaten für das eigentliche Modell genutzt worden sind. Die falschen Gesichter könnten so echte Identitäten preisgeben. Laut Technology Review sei diese Arbeit eine weiterer wichtiger Beleg dafür, dass Machine-Learning-Modelle doch viel mehr über ihr Innenleben und ihre Ausgangsdaten verraten, als von vielen angenommen.

Im Falle der Gesichter nutzte das Forschungsteam einen sogenannten Membership-Angriff, um herauszufinden, ob und welche Gesichter eventuell in den Trainingsdaten vorhanden sind. Dabei wird ausgenutzt, dass ein Modell jene Daten, mit denen es trainiert worden ist, leicht anders behandelt, als unbekannte Daten. Dem Team gelang es darüber hinaus auch, ähnliche Aufnahmen in den Trainingsdaten zu erkennen, die letztlich zu gleichen Personen gehörten. Dies gelang wiederum über die generierten Gesichter, die dann kaum zufällig waren, sondern vielmehr große Ähnlichkeit mit den Ausgangsdaten aufwiesen.

Datenlecks über weitere Techniken möglich

In einer weiteren Forschungsarbeit, über die Technology Review berichtet, ist es gar gelungen, direkt die Trainingsdaten aus dem Modell selbst wiederherzustellen. Dafür sind die einzelnen Schritte, die das Modell durchläuft, zurückverfolgt und rückwärts angewendet worden. Die so gewonnenen Bilder sehen denen der echten Trainingsdaten sehr ähnlich.

Golem Akademie
  1. Kubernetes Dive-in-Workshop: virtueller Zwei-Tage-Workshop
    16.–17. November 2021, Virtuell
  2. Azure und AWS Cloudnutzung absichern: virtueller Zwei-Tage-Workshop
    25.–26. November 2021, virtuell
Weitere IT-Trainings

Unabhängig von den konkreten Beispielen gibt die Arbeit einen Anhaltspunkt dafür, dass Ähnliches auch mit anderen produktiv genutzten Modellen möglich sein könnte. Etwa im Falle von medizinischen Daten könnte dies gravierende Folgen für die Betroffenen haben, wenn ihre Identitäten bekannt würden. Ob es möglich ist, diese Art des Datenleaks über die Modelle selbst zu verhindern, bleibt Teil künftiger Forschungsarbeiten.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Kursabsturz
Teamviewer-Chef spricht über schwere hausgemachte Fehler

Die vielen neuen Mitarbeiter seien nicht richtig eingearbeitet worden. Und die Ziele von Teamviewer seien zu hochgesteckt gewesen, sagt Oliver Steil.

Kursabsturz: Teamviewer-Chef spricht über schwere hausgemachte Fehler
Artikel
  1. Rockstar Games: Neue GTA Trilogy läuft auch auf älterer PC-Hardware
    Rockstar Games
    Neue GTA Trilogy läuft auch auf älterer PC-Hardware

    Die Grafik der überarbeiteten GTA Trilogy sieht im Video viel besser aus als im Original. Trotzdem muss es keine ganz neue Hardware sein.

  2. Staatstrojaner: Journalist der New York Times mit Pegasus gehackt
    Staatstrojaner
    Journalist der New York Times mit Pegasus gehackt

    Nach mehreren Versuchen wurde ein Journalist der New York Times mit dem NSO-Trojaner Pegasus infiziert. Schützen konnte er sich nicht.

  3. Adobe Max 2021: Mehr KI-Funktionen in Photoshop und Premiere Pro
    Adobe Max 2021
    Mehr KI-Funktionen in Photoshop und Premiere Pro

    Adobe hat eine bessere Objektauswahl und einfacheres Kolorieren in Photoshop sowie Optionen für Musikremixing in Premiere Pro vorgestellt.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Speicherprodukte von Sandisk & WD zu Bestpreisen (u. a. Sandisk SSD Plus 2TB 140,99€) • Sapphire Pulse RX 6600 497,88€ • Nintendo Switch OLED 369,99€ • Epos H3 Hybrid Gaming-Headset 144€ • Apple MacBook Pro 2021 ab 2.249€ • EA-Spiele günstiger • Samsung 55" QLED 699€ [Werbung]
    •  /