Reverse Engineering: Facebook will Deep Fakes erkennen und zurückverfolgen
Echte Bilder haben Eigenschaften, die etwa die genutzte Kamera verraten. Facebook will Ähnliches nun auch bei Deep-Fake-Bildern erkennen können.

Das KI-Team von Facebook hat in Zusammenarbeit mit der Michigan State University einen Forschungsansatz "zum Erkennen und Zuordnen von Deep Fakes" vorgestellt, der auf "Reverse Engineering von einem einzelnen KI-generierten Bild zum generativen Modell basiert". Dies soll es ermöglichen, Deep Fakes in ihrer realen Umgebung zu erkennen und zurückzuverfolgen, insbesondere in Situationen, in denen das Bild die einzige verfügbare Information ist.
Laut Facebook beschränken sich bisherige Diskussionen darauf herauszufinden, ob ein Bild echt ist oder als Deep Fake erzeugt wurde. Dabei wird jedoch oft schlicht mit bekannten Deep-Learning-Modellen gearbeitet oder gar mit dem Wissen über die zum Training genutzten Ausgangsbilder. Sollen aber beliebige Bilder als Deep Fake erkannt werden, helfen diese Ansätze eben nicht mehr weiter.
Bei dem von den Forschern verfolgten Ansatz handelt es sich um sogenanntes Reverse Engineering, das darauf gerichtet sei, die "einzigartigen Muster hinter dem KI-Modell aufzudecken, das verwendet wird, um ein einzelnes Deepfake-Bild zu generieren". Beim Vergleich mehrerer Bilder könne außerdem festgestellt werden, ob diese möglicherweise mit dem gleichen Modell erstellt worden sind.
Modelle haben Fingerabdrücke
Das Team setzt dabei zunächst auf das Erkennen sogenannter Fingerabdrücke. Diese finden sich so ähnlich auch in nicht-generierten Bildern, die etwa das genutzten Kameramodell oder auch den Sensor verraten. Solche einzigartigen Muster im Bild hinterlassen laut den Forschern aber auch die generativen Machine-Learning-Modelle, die die Deep Fakes erzeugen.
Der verfolgte Ansatz versucht darüber hinaus, aus den Fingerabdrücken einzelne Eigenschaften der tatsächlich genutzten Modelle abzuleiten, um etwa auf deren Netzwerkgröße und damit auf deren Architektur zu schließen. Diese unterscheidet sich bei verschiedenen Modellen, so dass diese erkannt und auseinander gehalten werden können sollen. In ersten Versuchen funktioniert das laut der Erklärung bereits.
Facebook hofft mit seiner Forschung, Werkzeuge für auch für Dritte zu erstellen, "um Vorfälle koordinierter Desinformation mithilfe von Deep Fakes besser zu untersuchen und neue Richtungen für die zukünftige Forschung zu eröffnen".
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed