US-Wahlkampf: OpenAI will KI-Bilder mit Tool entlarven
OpenAI entwickelt ein Werkzeug zum Erkennen von KI-generierten Bildern, da in Wahlkämpfen ungekennzeichnete, KI-generierte Fotos gefährlich seien.
OpenAI versucht, dem potenziellen Missbrauch von KI-generierten Bildern während der weltweiten Wahlkämpfe zuvorzukommen. Das Unternehmen will ein Tool veröffentlichen, mit dem Bilder erkannt werden, die vom eigenen Dall-E-System erstellt wurden.
OpenAI teilte mit, das Tool Journalisten, Plattformen und Forschern zur Verfügung zu stellen, um Feedback zu erhalten. Interne Tests zeigten vielversprechende Ergebnisse bei der Erkennung von KI-generierten Bildern, selbst wenn diese nach der Erstellung verändert worden seien.
Bei den Wahlen im Jahr 2024 können weltweit mehr als vier Milliarden Bürger ihre Stimme abgeben. Nicht immer handelt es sich um demokratische Wahlen. Es ist denkbar, dass KI eingesetzt wird, um Bilder zu erzeugen, welche die öffentliche Meinung beeinflussen.
Das Tool würde Bilder markieren, die von Dall-E gemacht wurden. Etliche Systeme erschaffen jedoch KI-Bilder. Wie nützlich das Tool von OpenAI deshalb ist, wird sich noch zeigen. Wann die öffentliche Version angeboten wird, ist noch nicht bekannt.
OpenAI verbietet es außerdem Entwicklern, Chatbots zu erstellen, die vorgeben, echte Personen wie Kandidaten oder Institutionen wie Behörden zu sein. Um Menschen nicht von der Teilnahme an demokratischen Prozessen abzuschrecken, erlaubt OpenAI zudem keine Anwendungen, die Wahlprozesse und Qualifikationen falsch darstellen, etwa wann, wo oder wer wählen darf.
Kamerahersteller fördern Transparenz
Die Fotobranche arbeitet schon länger an einer digitalen Signatur, um echte Aufnahmen von Fakes zu unterscheiden. Die drei Kamerahersteller Nikon, Canon und Sony kündigten Anfang 2024 konkrete Schritte an, mit denen die digitale Signatur der Coalition for Content Provenance and Authenticity (C2PA) nach langem Vorlauf zum Einsatz kommen soll. Smartphonehersteller schlossen sich der Initiative bisher nicht an.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed










wenn die keypuncher im Billiglohnland bei trainieren auch nur Bilder von nackten Menschen...
Das wird mit ziemlicher Sicherheit ein oder mehrere GANs sein plus ein wenig spezifische...
Kommentieren