Zum Hauptinhalt Zur Navigation

Nicht KI-Fakes müssen gekennzeichnet werden, sondern ...

Ebenso hilfreich wäre es, wenn man bei Bildern und Videos erkennen könnte, ob es sich um echte Aufnahmen oder KI-generierte Medieninhalte handelt. Sowohl die Redakteurin, die daraus eine Meldung macht, als auch Endnutzer sollten eine Chance haben zu erkennen, ob die gezeigten Ereignisse so tatsächlich passiert sind und idealerweise auch wo und wann sie von wem aufgenommen wurden.

Spätestens seit Google im Mai 2025 den Videogenerator Veo 3 veröffentlich hat , scheint es für Konsumenten aber keine sichere Möglichkeit mehr zu geben, Fakevideos zuverlässig zu identifizieren. Im Juni 2025 wurden beispielsweise Videos auf Social Media verbreitet(öffnet im neuen Fenster) , die verheerende Einschläge in Häusern zeigten, die so offenbar nicht stattgefunden hatten.

Kryptografische Signaturen können helfen

Auch hier würden kryptografische Signaturen, die man zusammen mit Metadaten als Wasserzeichen einbetten könnte, helfen. Es gibt mit der Content Authenticity Initiative(öffnet im neuen Fenster) (CAI) und der Coalition for Content Provenance and Authenticity(öffnet im neuen Fenster) (C2PA) derzeit sinnvolle Ansätze und auch Vorstöße von Seiten der EU, für die eindeutige Kennzeichnung KI-generierter Inhalte zu sorgen. Allerdings muss man nüchtern bemerken, dass dies von der falschen Seite aus gedacht ist.

Nicht die KI-generierten, sondern die authentischen Inhalte sollten sich ausnahmslos kryptografisch ausweisen können. Fehlt ein solches Wasserzeichen mit kryptografischer Signatur und plausiblen Metadaten, so muss man zukünftig annehmen, dass es sich wohl um eine Fälschung handelt.

Natürlich ist der Ursprung für die verschärfte Situation die neue Möglichkeit, per KI fast beliebige Inhalte zu generieren. Die Katze ist aber aus dem Sack. Es sind nicht nur zentralisierte Dienste, die man durch gesetzliche Vorgaben zwingen könnte, Inhalte zu markieren. Modelle, die gute Qualität liefern, existieren auch als Open Source und lassen sich auf eigener Hardware betreiben. Hier kann vielleicht in der Theorie, aber niemals in der praktischen Umsetzung eine durchgehende Markierung erzwungen werden. Insbesondere Angreifer, die aus Gebieten mit anderen gesetzlichen Bedingungen heraus agieren, sind frei darin, unmarkierte Inhalte zu erzeugen.

Authentische Informationen müssen belegt werden

Effektiv ist einzig und allein, das zu tun, was man schon längst bei kritischen Informationen hätte etablieren sollen: Die authentischen Informationen und Medien belegen ihre Authentizität, ihre Quelle und ihre Vertrauenswürdigkeit. Jede Information und jedes Medium, das diese Informationen nicht enthält, ist folglich suspekt. Der Ansatz, dass man im Zweifel alles erstmal für glaubwürdig hält, muss umgekehrt werden. Das gilt ebenso für Rundfunkdienste wie deren Zulieferwege für kritische Informationen, aber auch jedes andere Medium.

Ohnehin werden mittelfristig mehr Medieninhalte existieren, die KI-generiert sind. KI als Quelle wird also zur Norm. Die authentischen Quellen werden eine Ausnahme darstellen, bei der noch mit echten Kameras und echten Mikrofonen gearbeitet wird. Diese Besonderheit zweifelsfrei zu markieren und zu belegen, wird die Aufgabe sein, der wir uns stellen müssen.

Mathias Küfner(öffnet im neuen Fenster) hat an der TU München Informatik mit Nebenfach Psychologie studiert und arbeitet seit 2001 mit digitalen Rundfunksystemen. Dies umfasst Konzeptstudien sowie die Projektierung, Konfiguration und Programmierung im Bereich von Audioanwendungen, Verkehrstelematik, DAB+-Sendernetzen, Multiplexern und Empfängern.


Relevante Themen