Zum Hauptinhalt Zur Navigation

US-Wahlkampf: OpenAI will KI-Bilder mit Tool entlarven

OpenAI entwickelt ein Werkzeug zum Erkennen von KI-generierten Bildern, da in Wahlkämpfen ungekennzeichnete, KI-generierte Fotos gefährlich seien.
/ Andreas Donath
7 Kommentare News folgen (öffnet im neuen Fenster)
KI scannt Fotos auf Authentizität (Symbolbild) (Bild: KI-generiert mit Midjourney/Golem.de)
KI scannt Fotos auf Authentizität (Symbolbild) Bild: KI-generiert mit Midjourney/Golem.de

OpenAI versucht, dem potenziellen Missbrauch von KI-generierten Bildern während der weltweiten Wahlkämpfe(öffnet im neuen Fenster) zuvorzukommen. Das Unternehmen will ein Tool veröffentlichen(öffnet im neuen Fenster) , mit dem Bilder erkannt werden, die vom eigenen Dall-E-System erstellt wurden.

OpenAI teilte mit, das Tool Journalisten, Plattformen und Forschern zur Verfügung zu stellen, um Feedback zu erhalten. Interne Tests zeigten vielversprechende Ergebnisse bei der Erkennung von KI-generierten Bildern, selbst wenn diese nach der Erstellung verändert worden seien.

Bei den Wahlen im Jahr 2024 können weltweit mehr als vier Milliarden Bürger ihre Stimme abgeben. Nicht immer handelt es sich um demokratische Wahlen. Es ist denkbar, dass KI eingesetzt wird, um Bilder zu erzeugen, welche die öffentliche Meinung beeinflussen.

Das Tool würde Bilder markieren, die von Dall-E gemacht wurden. Etliche Systeme erschaffen jedoch KI-Bilder. Wie nützlich das Tool von OpenAI deshalb ist, wird sich noch zeigen. Wann die öffentliche Version angeboten wird, ist noch nicht bekannt.

OpenAI verbietet es außerdem Entwicklern, Chatbots zu erstellen, die vorgeben, echte Personen wie Kandidaten oder Institutionen wie Behörden zu sein. Um Menschen nicht von der Teilnahme an demokratischen Prozessen abzuschrecken, erlaubt OpenAI zudem keine Anwendungen, die Wahlprozesse und Qualifikationen falsch darstellen, etwa wann, wo oder wer wählen darf.

Kamerahersteller fördern Transparenz

Die Fotobranche arbeitet schon länger an einer digitalen Signatur, um echte Aufnahmen von Fakes zu unterscheiden. Die drei Kamerahersteller Nikon, Canon und Sony kündigten Anfang 2024 konkrete Schritte an , mit denen die digitale Signatur der Coalition for Content Provenance and Authenticity (C2PA) nach langem Vorlauf zum Einsatz kommen soll. Smartphonehersteller schlossen sich der Initiative bisher nicht an.


Relevante Themen