Propaganda durch KI-Agenten: Man erkennt sie an der Fadesse
Propagandamaschinerien haben durch KI -Agenten einen Schub bekommen. Was aber nicht heißt, dass man Desinformationskampagnen hilflos ausgeliefert wäre.
Es war nur eine Frage der Zeit, bis solche Schlagzeilen auftauchen würden: Das KI-Unternehmen Anthropic meldete Mitte November, dass sein Sprachmodell Claude für einen großangelegten Cyberangriff missbraucht worden sei(öffnet im neuen Fenster) . Es sei der erste bekanntgewordene Fall eines semi-autonomen Angriffs durch ein Sprachmodell überhaupt, erklärte das Unternehmen.
Im Bericht über den Vorfall macht Anthropic Cyberakteure der Volksrepublik China für den Angriff verantwortlich, Details dazu sucht man im Report allerdings vergebens. Und bei der Lektüre wird schnell klar, dass die Schilderung des Hacks eines LLMs zu Angriffszwecken offensichtlich nicht von einem Menschen, sondern einem Sprachmodell verfasst wurde.