Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
LLM Infection:
Wenn Chatbots zur Waffe werden

KI gilt als Schlüsseltechnologie unserer Zeit - doch sie ist nicht nur Werkzeug der Innovation, sondern zunehmend auch Instrument gezielter Manipulation.
/ Nils Matthiesen
Kommentare News folgen (öffnet im neuen Fenster)
Ob ein Chatbot die Wahrheit sagt oder falsche Informationen verbreitet, lässt sich nur durch Vergleiche herausfinden. (Bild: Mohamed_hassan/Pixabay)
Ob ein Chatbot die Wahrheit sagt oder falsche Informationen verbreitet, lässt sich nur durch Vergleiche herausfinden. Bild: Mohamed_hassan/Pixabay

Demokratische Gesellschaften leben von der Fähigkeit zur Überzeugung: Organisationen, Gesundheitsbehörden, Interessenvertreter, religiöse Gruppen, Medien, aber auch Freunde und Familienmitglieder werben tagtäglich für bestimmte Einstellungen, Verhaltensweisen oder politische Entscheidungen. In freiheitlichen Gesellschaften ersetzt Überzeugung den Zwang.

"Die Demokratie zeichnet sich als Regierungsform insbesondere durch das Ausmaß der Überzeugung im Vergleich zum Zwang aus." (Kalla et al., 2024, Science Advances) Doch diese Form der Meinungsbildung gab schon im antiken Griechenland oder bei der US-Staatsgründung Anlass zur Sorge: Denn Überzeugung kann auch manipulativ missbraucht werden. Genau dieser Missbrauch wird durch generative KI-Modelle in einer neuen Dimension möglich. Wir erklären, wie diese LLM Infection funktioniert, wer sie nutzt und wie Anwender sich davor schützen können.

Golem Plus Artikel