Fälschen, lernen, detektieren

Doch es ist ein Katz-und-Maus-Spiel. Die Forensikwerkzeuge werden schnell wirkungslos, weil auch die Macher von Deep-Fake-Videos ihre Techniken ständig verbessern. Und blitzschnell reagieren. So veröffentlichte im Sommer 2018 ein US-Forscher eine ganz einfache Methode, Videofälschungen zu erkennen: Deep Fakes blinzelten nicht oder zu selten, stellte er fest. Kurze Zeit später tauchten dann die ersten Deep-Fake-Videos auf, in denen die Abgebildeten korrekt blinzelten.

Kein Einzelfall, meint Hany Farid: Früher habe es Jahre gedauert, bis Fälschungsmethoden neue Forensikwerkzeuge ausgehebelt hätten - heute seien es nur noch zwei, drei Monate. "Wir sind unterlegen", sagte er im Sommer bei einer Anhörung vor dem US-Kongress. Hundert Menschen, die an der Herstellung von Deep Fakes arbeiteten, stünden einem gegenüber, der an Erkennungsmethoden forsche.

Aktuell sei die Detektion noch einfach, weil die Fakes nicht ganz so gut seien, schreibt hingegen Matthias Nießner. Er ist Professor für Visual Computing an der TU München, in Kooperation mit US-Eliteuniversitäten arbeitet auch er an Werkzeugen, mit denen sich Deep Fakes und andere Videomanipulationen erkennen lassen. Gerade erst hat er eines vorgestellt, das Maschinen mit verfälschten Videos füttert und sie so lernen lässt, Deep Fakes zu erkennen. Nießner ärgert sich, dass in der Öffentlichkeit unter dem Schlagwort Deep Fakes vieles diskutiert werde, das in der Film- und Videospielindustrie bereits seit Jahren im Einsatz sei.

Was hingegen in der Öffentlichkeit auffällt, sind Videos wie jenes, das im Mai die demokratische Spitzenpolitikerin Nancy Pelosi vermeintlich betrunken zeigte. Es taucht in sozialen Netzwerken auf. "Das ist natürlich kein Deep Fake, da steckt auch keinerlei Intelligenz dahinter", sagt Nießner. Pelosis schleppende Sprache, ihre ungelenken Bewegungen - all das wirkte nur alkoholisiert, weil das Video verlangsamt abgespielt wurde. Einen Cheap Fake würden andere das nennen. Wie Claire Wardle sagt auch Nießner: "Propaganda kann man viel einfacher machen."

Selbst wenn jemand ein Deep-Vake-Video erstelle, mit einem Hybrid beispielsweise aus Putin und Trump, schreibt Nießner Zeit Online, wage er zu bezweifeln, ob davon so viel Gefahr ausgehe. "Man sieht ja, dass es ein Fake ist." Bedrohlicher seien Deep Fakes, die als Porno aus Rache gegen Frauen (revenge porn) eingesetzt oder unter Jugendlichen fürs Mobbing etwa an Schulen benutzt würden: "Hier ist teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist - der Schaden für die betroffene Person ist so oder so entstanden."

Fälschung erkannt. Und dann?

Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme beginnen erst dann. Forensiker können herausfinden, dass ein Video manipuliert wurde - aber nicht, warum. Bedeutet: Selbst wenn es allgemein zugängliche Tools zum Enttarnen gäbe, müssten die Plattformen, auf denen die Videos und Audiodateien gepostet werden, trotzdem entscheiden, was stehen bleiben darf und was zu löschen ist. Welche Deep Fakes sind Kunst oder Satire und als solche zulässig? Was ist harmlos oder einfach Unterhaltung - und was böswillige Manipulation? Es sind Fragen, die immer und immer wieder auftreten, wenn es darum geht, eine Technologie beherrschen zu wollen, die für den einen Zweck unterbunden werden soll und für den anderen vermarktet.

"Letztlich wird man sich daran gewöhnen, dass digitale Videos künstlich generiert werden können", sagt Matthias Nießner. Wissend, dass die Qualität von Deep Fakes in absehbarer Zeit immer besser wird. Und zählt dann doch technische Möglichkeiten auf, Deep Fakes entgegenzuwirken - mit dem digitalen Signieren von Videos etwa, das dessen Authentizität bezeugen könne. Viele andere kritisieren aber auch, dass Technologie allein das Problem der Deep Fakes nicht lösen können wird.

Große Verantwortung fällt wieder einmal sozialen Medien und ihren Plattformen zu. Einfach automatisiert veränderte Videos zu blocken - das wird wenig zielführend sein. Die Verifikationsexpertin Wardle appelliert in ihrem New-York-Times-Video an sie, gut darüber nachzudenken, wie sie mit diesen Deep-Fake-Inhalten umgehen und wie sie sie labeln. Wardle richtet sich aber auch an die Nutzerinnen und Nutzer dieser Plattformen. Die nämlich sollten auch selbst Verantwortung übernehmen: "Wenn Sie sich nicht hundertprozentig sicher sind, dass etwas authentisch ist: Bitte teilen Sie es nicht."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Putschversuch dank Deep Fake?
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5


polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...



Aktuell auf der Startseite von Golem.de
Vision Pro
Apples Mixed-Reality-Taucherbrille kostet 3.500 US-Dollar

Apples erstes Headset kann AR- und VR-Inhalte stufenlos überblenden, hat eine Hand- und Augensteuerung und einen externen Akku.

Vision Pro: Apples Mixed-Reality-Taucherbrille kostet 3.500 US-Dollar
Artikel
  1. iOS 17: Apples iOS 17 bekommt Nachttischmodus und smarte Funktionen
    iOS 17
    Apples iOS 17 bekommt Nachttischmodus und smarte Funktionen

    Apples neues iOS 17 bringt Verbesserungen für Basis-Apps wie Telefon oder Facetime und bringt einen Weckermodus für den Nachttisch.

  2. Macbook Air 15: Apple bringt das Macbook Air in groß
    Macbook Air 15
    Apple bringt das Macbook Air in groß

    Mit 15,3-Zoll-Panel soll das Macbook Air 15 mehr Platz auf dem Desktop haben. Außerdem senkt Apple das 13-Zoll-Modell im Preis.

  3. KI-Texte erkennen: Wer hat's geschrieben, Mensch oder Maschine?
    KI-Texte erkennen
    Wer hat's geschrieben, Mensch oder Maschine?

    Modelle wie ChatGPT sind so gut, dass sich KI- und Menschen-Texte kaum unterscheiden lassen. Forscher arbeiten nun an Verfahren, die sich nicht täuschen lassen.
    Ein Deep Dive von Andreas Meier

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • PS5 inkl. GoW Ragnarök oder CoD MW2 549€ • MSI RTX 4070 Ti 999€ • Gigabyte 43" 4K UHD 144 Hz 717€ • Amazon FireTV Smart-TVs bis -32% • MindStar: AMD Ryzen 7 5800X3D 285€, PowerColor RX 7900 XTX Hellhound 989€ • SanDisk Ultra NVMe 1TB 39,99€ • Samsung 980 1TB 45€ [Werbung]
    •  /