• IT-Karriere:
  • Services:

Fälschen, lernen, detektieren

Doch es ist ein Katz-und-Maus-Spiel. Die Forensikwerkzeuge werden schnell wirkungslos, weil auch die Macher von Deep-Fake-Videos ihre Techniken ständig verbessern. Und blitzschnell reagieren. So veröffentlichte im Sommer 2018 ein US-Forscher eine ganz einfache Methode, Videofälschungen zu erkennen: Deep Fakes blinzelten nicht oder zu selten, stellte er fest. Kurze Zeit später tauchten dann die ersten Deep-Fake-Videos auf, in denen die Abgebildeten korrekt blinzelten.

Stellenmarkt
  1. minnt GmbH, Unterföhring
  2. SCHOTT AG, Mainz

Kein Einzelfall, meint Hany Farid: Früher habe es Jahre gedauert, bis Fälschungsmethoden neue Forensikwerkzeuge ausgehebelt hätten - heute seien es nur noch zwei, drei Monate. "Wir sind unterlegen", sagte er im Sommer bei einer Anhörung vor dem US-Kongress. Hundert Menschen, die an der Herstellung von Deep Fakes arbeiteten, stünden einem gegenüber, der an Erkennungsmethoden forsche.

Aktuell sei die Detektion noch einfach, weil die Fakes nicht ganz so gut seien, schreibt hingegen Matthias Nießner. Er ist Professor für Visual Computing an der TU München, in Kooperation mit US-Eliteuniversitäten arbeitet auch er an Werkzeugen, mit denen sich Deep Fakes und andere Videomanipulationen erkennen lassen. Gerade erst hat er eines vorgestellt, das Maschinen mit verfälschten Videos füttert und sie so lernen lässt, Deep Fakes zu erkennen. Nießner ärgert sich, dass in der Öffentlichkeit unter dem Schlagwort Deep Fakes vieles diskutiert werde, das in der Film- und Videospielindustrie bereits seit Jahren im Einsatz sei.

Was hingegen in der Öffentlichkeit auffällt, sind Videos wie jenes, das im Mai die demokratische Spitzenpolitikerin Nancy Pelosi vermeintlich betrunken zeigte. Es taucht in sozialen Netzwerken auf. "Das ist natürlich kein Deep Fake, da steckt auch keinerlei Intelligenz dahinter", sagt Nießner. Pelosis schleppende Sprache, ihre ungelenken Bewegungen - all das wirkte nur alkoholisiert, weil das Video verlangsamt abgespielt wurde. Einen Cheap Fake würden andere das nennen. Wie Claire Wardle sagt auch Nießner: "Propaganda kann man viel einfacher machen."

Selbst wenn jemand ein Deep-Vake-Video erstelle, mit einem Hybrid beispielsweise aus Putin und Trump, schreibt Nießner Zeit Online, wage er zu bezweifeln, ob davon so viel Gefahr ausgehe. "Man sieht ja, dass es ein Fake ist." Bedrohlicher seien Deep Fakes, die als Porno aus Rache gegen Frauen (revenge porn) eingesetzt oder unter Jugendlichen fürs Mobbing etwa an Schulen benutzt würden: "Hier ist teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist - der Schaden für die betroffene Person ist so oder so entstanden."

Fälschung erkannt. Und dann?

Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme beginnen erst dann. Forensiker können herausfinden, dass ein Video manipuliert wurde - aber nicht, warum. Bedeutet: Selbst wenn es allgemein zugängliche Tools zum Enttarnen gäbe, müssten die Plattformen, auf denen die Videos und Audiodateien gepostet werden, trotzdem entscheiden, was stehen bleiben darf und was zu löschen ist. Welche Deep Fakes sind Kunst oder Satire und als solche zulässig? Was ist harmlos oder einfach Unterhaltung - und was böswillige Manipulation? Es sind Fragen, die immer und immer wieder auftreten, wenn es darum geht, eine Technologie beherrschen zu wollen, die für den einen Zweck unterbunden werden soll und für den anderen vermarktet.

"Letztlich wird man sich daran gewöhnen, dass digitale Videos künstlich generiert werden können", sagt Matthias Nießner. Wissend, dass die Qualität von Deep Fakes in absehbarer Zeit immer besser wird. Und zählt dann doch technische Möglichkeiten auf, Deep Fakes entgegenzuwirken - mit dem digitalen Signieren von Videos etwa, das dessen Authentizität bezeugen könne. Viele andere kritisieren aber auch, dass Technologie allein das Problem der Deep Fakes nicht lösen können wird.

Große Verantwortung fällt wieder einmal sozialen Medien und ihren Plattformen zu. Einfach automatisiert veränderte Videos zu blocken - das wird wenig zielführend sein. Die Verifikationsexpertin Wardle appelliert in ihrem New-York-Times-Video an sie, gut darüber nachzudenken, wie sie mit diesen Deep-Fake-Inhalten umgehen und wie sie sie labeln. Wardle richtet sich aber auch an die Nutzerinnen und Nutzer dieser Plattformen. Die nämlich sollten auch selbst Verantwortung übernehmen: "Wenn Sie sich nicht hundertprozentig sicher sind, dass etwas authentisch ist: Bitte teilen Sie es nicht."

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Putschversuch dank Deep Fake?
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)

polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

Desertdelphin 25. Nov 2019

kwt :D

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...


Folgen Sie uns
       


Samsung Galaxy S20 Ultra - Test

Das Galaxy S20 Ultra ist Samsungs Topmodell der Galaxy-S20-Reihe. Der südkoreanische Hersteller verbaut erstmals seinen 108-Megapixel-Kamerasensor - im Test haben wir uns aber mehr davon versprochen.

Samsung Galaxy S20 Ultra - Test Video aufrufen
    •  /