Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Propaganda durch KI-Agenten:
Man erkennt sie an der Fadesse

Propagandamaschinerien haben durch KI -Agenten einen Schub bekommen. Was aber nicht heißt, dass man Desinformationskampagnen hilflos ausgeliefert wäre.
/ Erich Moechel
7 Kommentare News folgen (öffnet im neuen Fenster)
Wo früher viele Trolle nötig waren, reicht heute einer. (Bild: PublicDomainPictures/Pixabay)
Wo früher viele Trolle nötig waren, reicht heute einer. Bild: PublicDomainPictures/Pixabay

Es war nur eine Frage der Zeit, bis solche Schlagzeilen auftauchen würden: Das KI-Unternehmen Anthropic meldete Mitte November, dass sein Sprachmodell Claude für einen großangelegten Cyberangriff missbraucht worden sei(öffnet im neuen Fenster) . Es sei der erste bekanntgewordene Fall eines semi-autonomen Angriffs durch ein Sprachmodell überhaupt, erklärte das Unternehmen.

Im Bericht über den Vorfall macht Anthropic Cyberakteure der Volksrepublik China für den Angriff verantwortlich, Details dazu sucht man im Report allerdings vergebens. Und bei der Lektüre wird schnell klar, dass die Schilderung des Hacks eines LLMs zu Angriffszwecken offensichtlich nicht von einem Menschen, sondern einem Sprachmodell verfasst wurde.

Golem Plus Artikel