Zum Hauptinhalt Zur Navigation

Instagram: Mosseri plant Fingerprinting für echte Medien

Instagram -Chef Adam Mosseri hält die Identifizierung von KI -Inhalten für kaum noch machbar und will daher echte Medien signieren lassen.
/ Nils Matthiesen
17 Kommentare News folgen (öffnet im neuen Fenster)
Instagram-Chef Adam Mosseri (Bild: PATRICK T. FALLON/AFP via Getty Images)
Instagram-Chef Adam Mosseri Bild: PATRICK T. FALLON/AFP via Getty Images

In einer bemerkenswert offenen Analyse(öffnet im neuen Fenster) zum Jahresbeginn 2026 hat Instagram-Chef Adam Mosseri ein Ende der klassischen Jagd auf KI-generierte Inhalte angedeutet. Laut Mosseri ist die Verbreitung synthetischer Medien inzwischen so weit fortgeschritten, dass eine zuverlässige Unterscheidung technisch kaum noch dauerhaft garantiert werden kann. Anstatt weiterhin primär darauf zu setzen, KI-Fälschungen zu entlarven, schlägt er eine fundamentale Verschiebung der Prioritäten vor: das Fingerprinting echter Medien.

Mosseri argumentiert, dass KI-Modelle in ihrer Fähigkeit, die Realität zu imitieren, die Erkennungssysteme der Plattformen zwangsläufig überholen werden. "Es wird praktischer sein, echte Medien mit einem Fingerabdruck zu versehen, als Fälschungen hinterherzujagen" , so der Manager. Damit gesteht Meta indirekt ein, dass die bisherigen Bemühungen zur automatisierten Kennzeichnung von KI-Inhalten an ihre Grenzen stoßen. Die Flut an synthetischem Content sei bereits jetzt so groß, dass die Integrität der Feeds auf andere Weise gesichert werden müsse.

Kryptografische Signaturen durch Kamerahersteller

Der Kern der neuen Strategie liegt in der Verifizierung des Ursprungs. Mosseri appelliert an die Hersteller von Smartphones und Kameras, Bilder und Videos bereits im Moment der Aufnahme kryptografisch zu signieren. Ein solcher "Chain of Custody"-Ansatz, wie er etwa im C2PA-Standard vorgesehen ist, würde eine lückenlose Kette vom Sensor bis zur Veröffentlichung ermöglichen. Instagram könnte dann verifizierte Originale explizit als solche ausweisen, anstatt jedes KI-Bild mühsam identifizieren zu müssen.

Dieser Ansatz verschiebt die Beweislast: Nicht mehr die Plattform muss beweisen, dass ein Bild künstlich ist, sondern der Ersteller kann durch technische Zertifikate belegen, dass es sich um eine reale Aufnahme handelt. Dies erfordere jedoch eine enge Zusammenarbeit der gesamten Technologiebranche, die Mosseri nun verstärkt einfordert.

Rawness als neues Echtheitszertifikat

Interessanterweise sieht Mosseri auch einen ästhetischen Wandel als Reaktion auf die KI-Schwemme. Er stellt fest, dass perfekte und hochgradig nachbearbeitete Bilder zunehmend mit KI assoziiert werden. Um sich abzuheben, setzen viele erfolgreiche Creator laut Mosseri vermehrt auf Rawness – also ungeschönte, oft qualitativ imperfekte Aufnahmen mit schlechterer Beleuchtung oder ungewöhnlichen Winkeln. Solche unvorteilhaften Bilder dienen den Nutzern zunehmend als Signal für Authentizität, da sie schwerer durch die oft auf Perfektion getrimmten KI-Modelle zu simulieren seien.


Relevante Themen