Zum Hauptinhalt Zur Navigation

Desinformation: KI-Agenten koordinieren Meinungsmache autonom

Neue Forschung zeigt: KI-Agenten können soziale Medien ohne Menschen steuern und täuschend echte Kampagnen zur Manipulation starten.
/ Nils Matthiesen
6 Kommentare News folgen (öffnet im neuen Fenster)
KI-Bots manipulieren soziale Medien. (Bild: Ron Lach / Pexels)
KI-Bots manipulieren soziale Medien. Bild: Ron Lach / Pexels

Die Zeiten, in denen Bot-Netzwerke in sozialen Medien an repetitiven Mustern und starren Skripten leicht zu erkennen waren, könnten bald enden. Forscher des Information Sciences Institute (ISI) der University of Southern California (USC) zeigen in einer aktuellen Studie(öffnet im neuen Fenster) , dass moderne KI-Agenten in der Lage sind, sich vollautomatisch zu koordinieren, um Narrative zu verbreiten und einen künstlichen öffentlichen Konsens zu simulieren.

Wie das Team in der Studie Emergent Coordinated Behaviors in Networked LLM Agents darlegt, benötigen diese Systeme keine menschliche Steuerung im operativen Betrieb mehr. Während klassische Bots lediglich vordefinierte Inhalte verstärken, entwickeln generative Agenten eigenständig Strategien.

Sie verfassen individuelle Posts, lernen aus dem Erfolg ihrer Teammitglieder und verstärken gegenseitig ihre Reichweite. Da jeder Beitrag leicht variiert, wirkt die Kommunikation für menschliche Nutzer und bisherige Erkennungsalgorithmen organisch und glaubwürdig.

Simulation entlarvt strategisches Verhalten

Für die Untersuchung simulierten die Wissenschaftler eine soziale Medienumgebung nach dem Vorbild von X. In Testläufen mit bis zu 500 KI-Agenten erhielten sogenannte Operator-Bots den Auftrag, einen fiktiven Kandidaten und ein bestimmtes Schlagwort zu bewerben. Das Ergebnis war eindeutig: Sobald die Bots wussten, wer zu ihrem Team gehörte, begannen sie ohne weitere Anweisung mit der gegenseitigen Verstärkung. Sie kopierten erfolgreiche Ansätze und koordinierten ihre Argumentationslinien nahezu so effektiv wie Bots, die explizite Strategiesitzungen abhielten.

Ein KI-Agent begründete sein Handeln in der Simulation damit, einen Beitrag retweeten zu wollen, da dieser bereits Engagement von Teamkollegen erhalten habe – ein rein strategisches Vorgehen zur Maximierung der Sichtbarkeit. Laut Luca Luceri, leitender Wissenschaftler am ISI, ist dies keine Zukunftsvision, sondern technisch bereits heute möglich.

Bedrohung für demokratische Prozesse

Die Forscher warnen vor den Auswirkungen auf Wahlen, die öffentliche Gesundheit oder die Wirtschaftspolitik. KI-gesteuerte Netzwerke könnten Randmeinungen als Mainstream erscheinen lassen und die politische Polarisierung massiv verschärfen. Da die Kosten für solche automatisierten Kampagnen im Vergleich zu menschlichen Troll-Fabriken minimal sind, sinkt die Hemmschwelle für staatliche oder politische Akteure drastisch.

Als Gegenmaßnahme schlagen die Experten vor, dass Plattformbetreiber nicht mehr nur Einzelinhalte prüfen sollten. Stattdessen müsse das kollektive Verhalten von Accounts analysiert werden. Wenn Konten ohne offensichtliche Verbindung zeitgleich dieselben Narrative verstärken, sei dies ein deutliches Warnsignal. Ob Plattformen wie X oder Facebook jedoch bereit sind, aggressiv gegen solche Bots vorzugehen – was potenziell die Nutzerzahlen senken würde – bleibt ungewiss.


Relevante Themen