KI-Anwendungen gegen KI-Propaganda
Die schlechte Nachricht ist freilich, dass sich solche Kampagnen strukturell wie methodisch kaum von manipulativer Propaganda unterscheiden. In beiden Fällen werden etwa Accounts in sozialen Netzwerken automatisiert eröffnet und laufend mit neuen Sujets und Botschaften bestückt. Legitime Kampagnen von Unternehmen, Politikern oder Aktivisten sind von Kampagnen zur verdeckten Einflußnahme daher nur anhand ihrer Inhalte zu unterscheiden. Und dafür braucht es Menschen.
Die EU-Kommission setzt deshalb vermehrt auf Faktenchecker, um solche verdeckten, KI-gestützten Kampagnen wie zuletzt rund um die Wahlen in Moldau und Rumänien frühzeitig zu identifizieren. Weil das in Rumänien viel zu spät geschah, mussten sogar die Präsidentschaftswahlen wiederholt werden.
Um das gesamte Ausmaß solcher Desinformationskampagnen rasch zu erfassen, die ja stets plattformübergreifend gefahren werden, können wiederum einfache KI-Anwendungen sehr nützlich sein. Man schickt einfach KI-Agenten los , die ähnliche Sujets und Botschaften identifizieren und sammeln. Bei der Mustersuche in großen Datenmengen sind KI-Anwendungen Menschen bekanntlich haushoch überlegen.
Angriff der schlanken Sprachmodelle
Für Lukasz Olejnik geht die Gefahr von KI-Missbrauch für Propaganda(öffnet im neuen Fenster) weniger von den großen, webbasierten Sprachmodellen wie Claude oder ChatGPT aus. Natürlich sei es möglich, die relativ schwachen "Guardrails" , also die Sicherheitsvorkehrungen dieser Modelle, auszutricksen, sagt Olejnik. Sobald solche verdeckten Kampagnen allerdings erstmals auffallen, können sie sofort deaktiviert werden, da sie ja von einem zentralen Punkt ausgehen, nämlich von einem webbasierten LLM.
Ganz anders verhält es sich mit den vielen schlanken LLMs wie Qwen oder Kimi aus China oder dem französischen Mistral . Wie Tests mit diesen Modellen gezeigt hätten, seien sie in allem, auch in der Interaktion mit echten Menschen, gut genug, um automatisierte, einigermaßen überzeugend wirkende Desinformationskampagnen zu generieren, sagt Olejnik. Für diese Sprachmodelle braucht es keine Rechenzentren, sie laufen lokal auf einem besseren PC oder einem moderaten Server.



Der Westen in der Defensive
Solche Installationen stehen vollständig unter Kontrolle der Person, die sie betreibt. Chinesische wie russische Akteure verfügten längst über solche Maschinerien für informationelle Kriegsführung, sagt Olejnik. Schlanke KI-Anwendungen, die obendrein frei erhältlich sind, haben jedoch die Kosten und damit die Schwelle zum Einstieg in die informationelle Kriegsführung drastisch abgesenkt. Ab nun sei auch mit vielen weitaus kleineren Akteuren zu rechnen, die künftig ebenfalls in der (Des-)Informationsdomäne mitmischen werden, so der Forscher.
Den Westen sieht Olejnik hier klar in der Defensive, wie schon in der Cyber-Domäne zu beobachten gewesen sei. Rechtststaatliche Beschränkungen für den Einsatz solcher Mittel gälten eben nur im Westen, in autoritären Staten seien dagegen so gut wie alle Mittel legitim. Der Vorstoß der EU-Kommission, die bisher eher informellen Mechanismen und Kanäle zur Abwehr von Informationsangriffen in einem Zentrum zu vernetzen, sei daher zu begrüßen, sagt Olejnik.
"Es ist zu hoffen, dass die Kombination von Desinformation und KI in Brüssel auch als systemisches Problem erkannt wird und ausreichend Mittel zur Abwehr bereitgestellt werden. Ich glaube nämlich nicht, dass die EU derzeit ausreichend gut aufgestellt ist, um solchen Szenarien für Propagandaangriffe, die ich in meiner jüngsten Untersuchung(öffnet im neuen Fenster) beschreibe, adäquat zu begegnen."



