• IT-Karriere:
  • Services:

Putschversuch dank Deep Fake?

Es gibt aber auch bereits Beispiele dafür, was Deep Fakes tatsächlich in der Politik lostreten könnten. Allerdings anders, als viele sich vielleicht vorstellen würden: In Gabun etwa tauchte im Dezember 2018 auf Facebook ein Video auf, in dem Präsident Ali Bongo eine Ansprache hielt. Monatelang war er zuvor nicht mehr in der Öffentlichkeit aufgetreten, galt vielen als schwer krank, vielleicht sogar tot. Sein politischer Gegner bezeichnete die Aufnahmen als Deep Fake - und das Video wurde Auslöser eines Putschversuchs durch das Militär von Gabun in der darauffolgenden Woche. Interessanterweise passierte all das, ohne dass eine forensische Analyse tatsächlich belegen konnte, dass es sich bei dem Video um einen Deep Fake handelte: Allein die Vorstellung, dass es sich um eine Fälschung handeln könne, genügte, um politische Konsequenzen auszulösen.

Stellenmarkt
  1. INTERBODEN GmbH & Co. KG, Ratingen
  2. Software AG, Darmstadt

Tatsächliche Ereignisse, Lüge oder auch nur die Annahme einer Lüge, all das scheint angesichts von Deep Fakes zu verwischen. Die US-Juristen Danielle Citron und Bobby Chesney veröffentlichten einen Bericht, in dem sie vor katastrophalen Konsequenzen warnten, die Deep Fakes in Gesellschaften entfalten könnten. Vor allem dort, wo sich politische Lager ohnehin bereits misstrauisch beäugen. Citron sagte der britischen Zeitung The Guardian, sie halte es für möglich, dass zeitlich geschickt platzierte Deep Fakes demokratische Prozesse beeinträchtigen könnten - indem sie zum Beispiel in einem Klima gesellschaftlicher Spaltung Vertrauen erodieren, Diskurse entzweien oder den Ausgang einer knappen Wahl in letzter Minute mit einer Fälschung drehen.

Lügen geht auch ohne künstliche Intelligenz

Claire Wardle hingegen, die Verifikationsexpertin von First Draft, nennt die Panik vor Deep Fakes in dem Video, zu dessen Beginn sie als Adele zu sehen war, "aufgeblasen". Sie leugne nicht, dass die Technologie besser und billiger werde. Doch sie sieht einen "alarmistischen Hype" um Deep Fakes - und bezeichnet den als "möglicherweise gefährlicher als die Technologie selbst".

"Man braucht keine Deep Fakes, keine künstliche Intelligenz, um Emotionen zu manipulieren oder Desinformationen zu verbreiten", sagt sie. Und meint damit: Wer lügen will, dem reichen Photoshop, eine stinknormale Videobearbeitungssoftware oder schlicht die Möglichkeit, ein existierendes Foto mit einer irreführenden Bildunterschrift aus dem Kontext zu reißen. Oberflächliche Manipulation nennt Wardle das, "Shallow Fakes". Medienwissenschaftler und IT-Sicherheitsexperten stimmen zu, nutzen den Begriff "Cheap Fakes", billige Fälschungen.

Wenn das Verbreiten von Lügen und Desinformation im Netz so einfach geht - warum dann mühevoll Deep Fakes basteln?

Hao Li, Deep-Fakes-Pionier, schreibt Zeit Online: "Ich glaube nicht, dass Technologien rund um Deep Fakes das Ende der Welt bedeuten." Genauso wie die Bildbearbeitungssoftware Photoshop ihr noch kein Ende bereitet habe - obwohl damit auch jeder Fotos manipulieren kann, um sie anschließend im Netz zu verbreiten.

Am Ende fürchten Claire Wardle und viele andere weniger, dass unentdeckte Deep Fakes für Chaos sorgen. Für viel größer halten sie die Gefahr, dass diese technisch anspruchsvoll manipulierten Videos eine Umgebung schaffen könnten, in der Zuschauer das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Vor diesem indirekten Effekt auf die Demokratie warnen auch die Juristen Citron und Chesney - die "Dividende des Lügners" nennen sie ihn. Ein Kommunikationsmuster, das Leute wie Donald Trump groß gemacht haben. Man muss gar nicht selbst glaubwürdig sein. Menschen müssen gar nicht glauben, was Trump sagt. Es genügt, die Glaubwürdigkeit seiner Gegner und ihrer Quellen infrage zu stellen. Denn: Wenn ohnehin alles gelogen sein könnte, kann man auch eine Tatsache als Lüge diskreditieren.

Andere Menschen aus der Technologie- und Verifikationsszene warnen außerdem, dass Deep Fakes weniger die Großen und Mächtigen bedrohen als vielmehr unbekanntere Menschen und Privatpersonen, denen weniger Ressourcen zur Verfügung stehen, um sich gegen potenzielle Verleumdungen durch Deep Fakes zu wehren. Lokalpolitiker zum Beispiel. Frauen, deren Ex-Freunde sich mit pornografisch herabwürdigenden Fälschungen rächen wollen. Schüler, die Opfer von Mobbing werden. Leute, denen die Ressourcen fehlen, die große Bühne, um Diskreditierungen ihrer Person öffentlich auszuräumen.

Wettrüsten zwischen Fakern und Checkern

Und dann gibt es die, die tagtäglich Fälschung von Original unterscheiden müssen. Die Nachrichtenagentur Reuters hat begonnen, sich für eine Zukunft mit Deep-Fake-Videos zu wappnen. Reuters stellte seine Faktenchecker auf die Probe: Erkennen sie tatsächlich ein Deep-Fake-Video, wenn sie eines vor sich haben? Um das zu überprüfen, erstellte die Agentur einen Deep Fake, in dem eine Nachrichtensprecherin auf Französisch eine Meldung vortrug.

Die gute Nachricht: Den Faktencheckern fiel auf, dass etwas mit diesem Video nicht stimmte. Die schlechte: Was genau falsch war, konnten sie nicht benennen, es blieb bei einem "unbehaglichen Gefühl", berichtet Hazel Baker, Chefin der Abteilung zur Prüfung von nutzergenerierten Inhalten bei Reuters. Bedeutet: Aufwendig gemachte Deep-Fake-Fälschungen verwirren schon heute selbst Profis.

Wie also hebelt man das aus? Es klingt erst einmal naheliegend, zur Bekämpfung eines technischen Problems auf Technik zu setzen. Forensische Methoden zu entwickeln, die Deep Fakes von authentischem Bildmaterial unterscheiden können.

Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird - all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Von Quatsch bis PutschFälschen, lernen, detektieren 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Anzeige
Top-Angebote
  1. 266€ inkl. 20-Euro-Steam-Gutschein
  2. (u. a. Die Bud Spencer Jumbo Box XXL (Blu-ray) für 44,97€, Das Boot - Staffel 2 (Blu-ray) für...
  3. (u. a. 4S LED TV 55 Zoll für 545,38€, Redmi Note 9 Pro 128GB für 199,16€, Mi Basic 2 In-ear...
  4. 117,99€ inkl. 20-Euro-Steam-Gutschein

polomo 06. Dez 2019

@Hotohori Auch das war schon immer der Fall Das Problem ist, dass Videos früher als...

dark_matter 02. Dez 2019

Aus dem Artikel: "Was aber bringt es am Ende, einen Deep Fake zu erkennen? Viele Probleme...

DieTatsaechlich... 27. Nov 2019

Ein Staatsoberhaupt oder eine Regierung wurden doch bisher nocht nicht durch "Deep Fakes...

Desertdelphin 25. Nov 2019

kwt :D

unbuntu 24. Nov 2019

Halt dich fest, Fotomanipulation gab es schon wenige Jahre, nachdem Fotografie überhaupt...


Folgen Sie uns
       


Data-Mining: Wertvolle Informationen aus Datenhaufen ziehen
Data-Mining
Wertvolle Informationen aus Datenhaufen ziehen

Betreiber von Onlineshops wollen wissen, was sich verkauft und was nicht. Mit Data-Mining lassen sich aus den gesammelten Daten über Kunden solche und andere nützliche Informationen ziehen. Es birgt aber auch Risiken.
Von Boris Mayer


    BVG: Lieber ungeschützt im Nahverkehr
    BVG
    Lieber ungeschützt im Nahverkehr

    In einem Streit mit dem BSI definiert sich die BVG als klein, um unsicher bleiben zu dürfen. Das ist kleinkariert und absurd.
    Ein IMHO von Moritz Tremmel

    1. Mobilitätswende Berlin schickt 100. Elektrobus auf die Straße
    2. Solaris Urbino 18 electric Berliner Verkehrsbetriebe mit elektrischen Gelenkbussen
    3. Dekarbonisierung Alle Berliner Busse werden elektrisch

    IT-Security outsourcen: Besser als gar keine Sicherheit
    IT-Security outsourcen
    Besser als gar keine Sicherheit

    Security as a Service (SECaaS) verspricht ein Höchstmaß an Sicherheit. Das Auslagern eines so heiklen Bereichs birgt jedoch auch Risiken.
    Von Boris Mayer

    1. Joe Biden Stellenanzeige im Quellcode von Whitehouse.gov versteckt
    2. Sturm auf Kapitol Pelosis Laptop sollte Russland angeboten werden
    3. Malware Offenbar Ermittlungen gegen Jetbrains nach Solarwinds-Hack

      •  /