Desinformation: KI-Agenten koordinieren Meinungsmache autonom
Die Zeiten, in denen Bot-Netzwerke in sozialen Medien an repetitiven Mustern und starren Skripten leicht zu erkennen waren, könnten bald enden. Forscher des Information Sciences Institute (ISI) der University of Southern California (USC) zeigen in einer aktuellen Studie(öffnet im neuen Fenster) , dass moderne KI-Agenten in der Lage sind, sich vollautomatisch zu koordinieren, um Narrative zu verbreiten und einen künstlichen öffentlichen Konsens zu simulieren.
Wie das Team in der Studie Emergent Coordinated Behaviors in Networked LLM Agents darlegt, benötigen diese Systeme keine menschliche Steuerung im operativen Betrieb mehr. Während klassische Bots lediglich vordefinierte Inhalte verstärken, entwickeln generative Agenten eigenständig Strategien.
Sie verfassen individuelle Posts, lernen aus dem Erfolg ihrer Teammitglieder und verstärken gegenseitig ihre Reichweite. Da jeder Beitrag leicht variiert, wirkt die Kommunikation für menschliche Nutzer und bisherige Erkennungsalgorithmen organisch und glaubwürdig.
Simulation entlarvt strategisches Verhalten
Für die Untersuchung simulierten die Wissenschaftler eine soziale Medienumgebung nach dem Vorbild von X. In Testläufen mit bis zu 500 KI-Agenten erhielten sogenannte Operator-Bots den Auftrag, einen fiktiven Kandidaten und ein bestimmtes Schlagwort zu bewerben. Das Ergebnis war eindeutig: Sobald die Bots wussten, wer zu ihrem Team gehörte, begannen sie ohne weitere Anweisung mit der gegenseitigen Verstärkung. Sie kopierten erfolgreiche Ansätze und koordinierten ihre Argumentationslinien nahezu so effektiv wie Bots, die explizite Strategiesitzungen abhielten.
Ein KI-Agent begründete sein Handeln in der Simulation damit, einen Beitrag retweeten zu wollen, da dieser bereits Engagement von Teamkollegen erhalten habe – ein rein strategisches Vorgehen zur Maximierung der Sichtbarkeit. Laut Luca Luceri, leitender Wissenschaftler am ISI, ist dies keine Zukunftsvision, sondern technisch bereits heute möglich.
Bedrohung für demokratische Prozesse
Die Forscher warnen vor den Auswirkungen auf Wahlen, die öffentliche Gesundheit oder die Wirtschaftspolitik. KI-gesteuerte Netzwerke könnten Randmeinungen als Mainstream erscheinen lassen und die politische Polarisierung massiv verschärfen. Da die Kosten für solche automatisierten Kampagnen im Vergleich zu menschlichen Troll-Fabriken minimal sind, sinkt die Hemmschwelle für staatliche oder politische Akteure drastisch.
Als Gegenmaßnahme schlagen die Experten vor, dass Plattformbetreiber nicht mehr nur Einzelinhalte prüfen sollten. Stattdessen müsse das kollektive Verhalten von Accounts analysiert werden. Wenn Konten ohne offensichtliche Verbindung zeitgleich dieselben Narrative verstärken, sei dies ein deutliches Warnsignal. Ob Plattformen wie X oder Facebook jedoch bereit sind, aggressiv gegen solche Bots vorzugehen – was potenziell die Nutzerzahlen senken würde – bleibt ungewiss.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.