Zum Hauptinhalt Zur Navigation

US-Wahlkampf: Anruf von falschem Biden löst neue Sorge um KI-Fakes aus

Der Einsatz von KI zur politischen Einflussnahme wird wohl zu einem immer größeren Problem. Die geklonte Stimme von US-Präsident Biden sollte vom Wählen abhalten.
/ Sebastian Grüner , dpa
24 Kommentare News folgen (öffnet im neuen Fenster)
Der echte Joe Biden (Bild: Kevin Dietsch/Getty Images)
Der echte Joe Biden Bild: Kevin Dietsch/Getty Images

Fingierte Wahlkampf-Anrufe von US-Präsident Joe Biden schüren die Angst vor Manipulationen mithilfe künstlicher Intelligenz im US-Wahlkampf. In den automatisierten Anrufen rief eine Stimme, die der von Biden zum Verwechseln ähnlich war, Demokraten in New Hampshire auf, nicht an den Vorwahlen in dem US-Bundesstaat teilzunehmen.

Solche sogenannten Robocalls sind ein gängiges Wahlkampfinstrument in den USA. Die Absenderinformationen bei den Anrufen wurden ebenfalls gefälscht, so dass sie von einem politischen Komitee von Bidens Demokratischer Partei zu kommen schienen, wie die Generalstaatsanwaltschaft von New Hampshire am Montag mitteilte(öffnet im neuen Fenster) .

Software auf Basis künstlicher Intelligenz kann mithilfe von Tonaufnahmen bestimmter Personen darauf trainiert werden, beliebige Sätze mit deren Stimme zu sprechen. Robocalls seien ein attraktives Ziel für solche Manipulationen, da sie schwer zu überwachen seien, sagte der amerikanische Politikexperte Ian Bremmer am Montag im US-Sender CNBC. Auch online sei es relativ einfach, mit einer "Armee aus Bots" falsche Informationen an viele Leute zu verteilen, warnte er. NBCNews veröffentlichte eine Aufnahme des Fake-Anrufs(öffnet im neuen Fenster) .

Befürchtungen gibt es auch angesichts der Möglichkeit, mittels Software gezielt Bilder - und inzwischen auch kurze Videos - mit beliebigen Inhalten zu erzeugen. Bisher sieht man den künstlich generierten Aufnahmen oft Fehler an, doch die Technologie wird schnell immer besser. Dass Menschen vergleichsweise leicht auf Fake-Anrufe hereinfallen können, hatte sich auf politischer Bühne zuletzt etwa am Fake-Anruf durch einen falschen Vitali Klitschko gezeigt , dem etwa Berlins damalige Bürgermeisterin Franziska Giffey (SPD) aufsaß. Damals hieß es noch, dass es sich dabei aller Wahrscheinlichkeit nach nicht um einen Deepfake gehandelt habe . Mit immer besser werdender Technik und Fokus auf einzelne Medien, wie die Stimme bei einem Anruf, dürfte die Umsetzung solcher Fakes aber immer besser werden.


Relevante Themen