Facebook: KI zum Erkennen von Deep Fakes ist minimal besser als raten

Mehr als 2.000 Entwicklerteams haben KIs eingereicht, die Deep Fakes erkennen sollten. Die Ergebnisse sind ernüchternd, die Erkenntnisse gut.

Artikel veröffentlicht am ,
Die KI zum Erkennen von Deep Fakes ist etwas genauer als ein Münzwurf.
Die KI zum Erkennen von Deep Fakes ist etwas genauer als ein Münzwurf. (Bild: Oliver Nickel/Golem.de)

Facebook hat die Ergebnisse seiner Deepfake Detection Challenge bekanntgegeben. 2.114 Entwicklerteams haben ab September 2019 ihre KI-Modelle eingereicht. Das Ziel war es, eine Software zu entwickeln, die automatisiert und möglichst zuverlässig durch eine andere KI gefälschte Videos - auch Deep Fakes genannt - erkennen kann. Gewinner ist das Programm des Entwicklers Selim Seferbekov, welches eine Genauigkeit von 65,18 Prozent beim Erkennen von unbekannten Deep Fakes, dem Black-Box-Datensatz aus 10.000 Videos, aufweisen konnte. Das ist nur wenig mehr, als würde eine zufällige Entscheidung durch Raten mit einer Genauigkeit von 50 Prozent getroffen werden.

Stellenmarkt
  1. Projektleiter (m/w/d) SAP
    Handtmann Service GmbH & Co. KG, Biberach an der Riss
  2. Site Reliability Engineer (w/m/d)
    Haufe Group, Freiburg
Detailsuche

Im Jahr 2019 hatte die Challenge, die Facebook in Kooperation mit Microsoft und mehreren technischen Universitäten angekündigt hatte, begonnen. Kurz darauf hatte das Unternehmen einen Vorschaudatensatz mit 4.000 Videos veröffentlicht, der allen Teilnehmern öffentlich zugänglich war. Es ist daher wenig überraschend, dass an diesen Quelldateien, die allerdings eher weniger praktische Relevanz haben, eine Genauigkeit von 82,56 Prozent erreicht wurde.

Facebook will weiterentwickeln

Facebook gibt an, dass trotz der ernüchternden Ergebnisse im Black-Box-Test einige interessante Beobachtungen in der Forschung für die Erkennung von Deep Fakes gemacht wurden. So habe keines der vielen Entwicklerteams forensische Methoden für die Gesichtserkennung genutzt, etwa das Untersuchen von Artefakten und Bildrauschen - Effekte, die während der Erstellung eines Deep Fakes auftauchen können. Das sei eine Möglichkeit, die Genauigkeit der Modelle noch zu verbessern.

Auch wurde etwa das DS-WAN-Modell genutzt. Dieses verwendet schwaches Supervised Learning, um verschiedene Teile eines Gesichts, also etwa Augen, Mund und Nase, zu analysieren und diese dann entweder zu ignorieren oder genauer zu betrachten. Dieses vorherige Filtern von Fokuspunkten soll Overfitting entgegenwirken - also dem Effekt, dass Modelle durch zu viele Parameter weniger performant werden und zu sehr einfach nur die Quelldaten reproduzieren.

Golem Akademie
  1. Einführung in die Programmierung mit Rust
    21.-24. September 2021, online
  2. C++ 20: Concepts - Ranges - Coroutinen - Module
    4.-8. Oktober 2021, online
  3. Python kompakt - Einführung für Softwareentwickler
    28.-29. Oktober 2021, online
Weitere IT-Trainings

Facebook selbst hat ebenfalls versucht, ein Modell einzureichen. Allerdings habe dies durch Laufzeitprobleme keine Ergebnisse abliefern können. Das Team werde jedoch nicht aufgeben. "Techniken zu entwickeln, die Deep-Fake-Videos effizient entdecken können, sind für uns alle wichtig. Wir werden weiterhin offen mit anderen Experten arbeiten und diese Herausforderung gemeinsam angehen", schreibt das Unternehmen im Blogpost.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Opel Mokka-e im Praxistest
Reichweitenangst kickt mehr als Koffein

Ist ein Kompakt-SUV wie Opel Mokka-e für den Urlaub geeignet? Im Praxistest war nicht der kleine Akku das eigentliche Problem.
Ein Test von Friedhelm Greis

Opel Mokka-e im Praxistest: Reichweitenangst kickt mehr als Koffein
Artikel
  1. Statt TCP: Quic ist schwer zu optimieren
    Statt TCP
    Quic ist schwer zu optimieren

    Eine Untersuchung von Quic im Produktiveinsatz zeigt: Die Vorteile des Protokolls sind wohl weniger wichtig als die Frage, wer es einsetzt.

  2. Lockbit 2.0: Ransomware will Firmen-Insider rekrutieren
    Lockbit 2.0
    Ransomware will Firmen-Insider rekrutieren

    Die Ransomware-Gruppe Lockbit sucht auf ungewöhnliche Weise nach Insidern, die ihr Zugangsdaten übermitteln sollen.

  3. Galactic Starcruiser: Disney eröffnet immersives (und teures) Star-Wars-Hotel
    Galactic Starcruiser
    Disney eröffnet immersives (und teures) Star-Wars-Hotel

    Wer schon immer zwei Tage lang wie in einem Star-Wars-Abenteuer leben wollte, bekommt ab dem Frühjahr 2022 die Chance dazu - das nötige Kleingeld vorausgesetzt.

chefin 16. Jun 2020

Das System gibt es schon. Frag jemanden der auf dem Video abgebildet wurde. Und solange...

GwhE 15. Jun 2020

Erstmal danke für den Artikel, auch wenn ich ihn inhaltlich nicht gut fand, aber das kann...

Hotohori 15. Jun 2020

Alles hat eben seine Vor- und Nachteile.

Hotohori 15. Jun 2020

Und selbst ohne diese "Hilfe" entwickelt sich DeepFake rasant weiter. Das beschleunigt es...

Hotohori 15. Jun 2020

Und dennoch ist die Fehlerrate viel zu hoch für den produktiven Einsatz. Jedes dritte...



Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Schnäppchen • Fire TV Stick 4K Ultra HD 29,99€, Echo Dot 3. Gen. 24,99€ • Robas Lund DX Racer Gaming-Stuhl 143,47€ • HyperX Cloud II Gaming-Headset 59€ • Media Markt Breaking Deals [Werbung]
    •  /