Fälschen, lernen, detektieren

Doch es ist ein Katz-und-Maus-Spiel. Die Forensikwerkzeuge werden schnell wirkungslos, weil auch die Macher von Deep-Fake-Videos ihre Techniken ständig verbessern. Und blitzschnell reagieren. So veröffentlichte im Sommer 2018 ein US-Forscher eine ganz einfache Methode, Videofälschungen zu erkennen: Deep Fakes blinzelten nicht oder zu selten, stellte er fest. Kurze Zeit später tauchten dann die ersten Deep-Fake-Videos auf, in denen die Abgebildeten korrekt blinzelten.

Stellenmarkt
  1. Softwareentwickler (m/w/d)
    BST GmbH, Bielefeld
  2. Product Manager Cloud / PaaS / IaaS (m/w/d)
    iWelt GmbH + Co. KG, Eibelstadt
Detailsuche

Kein Einzelfall, meint Hany Farid: Früher habe es Jahre gedauert, bis Fälschungsmethoden neue Forensikwerkzeuge ausgehebelt hätten - heute seien es nur noch zwei, drei Monate. "Wir sind unterlegen", sagte er im Sommer bei einer Anhörung vor dem US-Kongress. Hundert Menschen, die an der Herstellung von Deep Fakes arbeiteten, stünden einem gegenüber, der an Erkennungsmethoden forsche.

Aktuell sei die Detektion noch einfach, weil die Fakes nicht ganz so gut seien, schreibt hingegen Matthias Nießner. Er ist Professor für Visual Computing an der TU München, in Kooperation mit US-Eliteuniversitäten arbeitet auch er an Werkzeugen, mit denen sich Deep Fakes und andere Videomanipulationen erkennen lassen. Gerade erst hat er eines vorgestellt, das Maschinen mit verfälschten Videos füttert und sie so lernen lässt, Deep Fakes zu erkennen. Nießner ärgert sich, dass in der Öffentlichkeit unter dem Schlagwort Deep Fakes vieles diskutiert werde, das in der Film- und Videospielindustrie bereits seit Jahren im Einsatz sei.

Was hingegen in der Öffentlichkeit auffällt, sind Videos wie jenes, das im Mai die demokratische Spitzenpolitikerin Nancy Pelosi vermeintlich betrunken zeigte. Es taucht in sozialen Netzwerken auf. "Das ist natürlich kein Deep Fake, da steckt auch keinerlei Intelligenz dahinter", sagt Nießner. Pelosis schleppende Sprache, ihre ungelenken Bewegungen - all das wirkte nur alkoholisiert, weil das Video verlangsamt abgespielt wurde. Einen Cheap Fake würden andere das nennen. Wie Claire Wardle sagt auch Nießner: "Propaganda kann man viel einfacher machen."

Selbst wenn jemand ein Deep-Vake-Video erstelle, mit einem Hybrid beispielsweise aus Putin und Trump, schreibt Nießner Zeit Online, wage er zu bezweifeln, ob davon so viel Gefahr ausgehe. "Man sieht ja, dass es ein Fake ist." Bedrohlicher seien Deep Fakes, die als Porno aus Rache gegen Frauen (revenge porn) eingesetzt oder unter Jugendlichen fürs Mobbing etwa an Schulen benutzt würden: "Hier ist teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist - der Schaden für die betroffene Person ist so oder so entstanden."

Fälschung erkannt. Und dann?

Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme beginnen erst dann. Forensiker können herausfinden, dass ein Video manipuliert wurde - aber nicht, warum. Bedeutet: Selbst wenn es allgemein zugängliche Tools zum Enttarnen gäbe, müssten die Plattformen, auf denen die Videos und Audiodateien gepostet werden, trotzdem entscheiden, was stehen bleiben darf und was zu löschen ist. Welche Deep Fakes sind Kunst oder Satire und als solche zulässig? Was ist harmlos oder einfach Unterhaltung - und was böswillige Manipulation? Es sind Fragen, die immer und immer wieder auftreten, wenn es darum geht, eine Technologie beherrschen zu wollen, die für den einen Zweck unterbunden werden soll und für den anderen vermarktet.

"Letztlich wird man sich daran gewöhnen, dass digitale Videos künstlich generiert werden können", sagt Matthias Nießner. Wissend, dass die Qualität von Deep Fakes in absehbarer Zeit immer besser wird. Und zählt dann doch technische Möglichkeiten auf, Deep Fakes entgegenzuwirken - mit dem digitalen Signieren von Videos etwa, das dessen Authentizität bezeugen könne. Viele andere kritisieren aber auch, dass Technologie allein das Problem der Deep Fakes nicht lösen können wird.

Große Verantwortung fällt wieder einmal sozialen Medien und ihren Plattformen zu. Einfach automatisiert veränderte Videos zu blocken - das wird wenig zielführend sein. Die Verifikationsexpertin Wardle appelliert in ihrem New-York-Times-Video an sie, gut darüber nachzudenken, wie sie mit diesen Deep-Fake-Inhalten umgehen und wie sie sie labeln. Wardle richtet sich aber auch an die Nutzerinnen und Nutzer dieser Plattformen. Die nämlich sollten auch selbst Verantwortung übernehmen: "Wenn Sie sich nicht hundertprozentig sicher sind, dass etwas authentisch ist: Bitte teilen Sie es nicht."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Putschversuch dank Deep Fake?
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5


Aktuell auf der Startseite von Golem.de
Kim Schmitz' Lebensgeschichte
Die Dotcom-Blase

Glaubt man seiner Autobiografie, wollte Kim Schmitz als Jugendlicher einfach nur raus aus seinem Leben. Also schuf er sich ein neues: als Kim Dotcom.
Von Stephan Skrobisch

Kim Schmitz' Lebensgeschichte: Die Dotcom-Blase
Artikel
  1. Erneuerbare Energien: Wasserstoff-Megaprojekt in Australien ausgebremst
    Erneuerbare Energien
    Wasserstoff-Megaprojekt in Australien ausgebremst

    Die australische Umweltministerin blockiert Pläne für das Wasserstoff-Projekt Asian Renewable Energy Hub.

  2. Nachhaltigkeit: Amazon beim Aussortieren von Neuwaren zur Zerstörung gefilmt
    Nachhaltigkeit
    Amazon beim Aussortieren von Neuwaren zur Zerstörung gefilmt

    ITV News hat ein Video veröffentlicht, das Amazon beim Aussortieren neuer Produkte zeigen soll. Dabei geht es um große Stückzahlen.

  3. Amazon Prime Day 2021 - die Highlights am Dienstag
     
    Amazon Prime Day 2021 - die Highlights am Dienstag

    Gestern hat der Prime Day angefangen, heute um Mitternacht ist es schon wieder vorbei. Die letzten Stunden des Verkaufsevents bieten jede Menge Highlights.
    Ausgewählte Angebote des E-Commerce-Teams

polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...


Folgen Sie uns
       


Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Schnäppchen • Amazon Prime Day nur noch heute • Gaming-Laptops von Razer, MSI & Asus • MS Surface Pro 7 664,05€ • Bosch-Werkzeug • RAM von Crucial • Monitore (u. a. Acer 27" WQHD 144Hz 259€) • SSDs (u. a. Sandisk Ultra 3D 1TB 70,29€) • Gaming-Chairs • MM Gönn dir Dienstag [Werbung]
    •  /