Russland und Belarus: KI auf Basis "traditioneller Werte"

Die Länder Belarus und Russland wollen eine künstliche Intelligenz (KI) auf Basis traditioneller Werte entwickeln. Wie die belarussische staatliche Nachrichtenagentur Belta schreibt(öffnet im neuen Fenster) , verkündete Sergei Glasjew, Sekretär der Zollunion innerhalb der Eurasischen Wirtschaftsunion, Journalisten den Plan am 11. Juli 2025 auf einer Konferenz mit dem Thema Informations- und Kulturraum.
Laut Glasjew ist das Ziel, ein vertrauenswürdiges und zuverlässiges KI-System zu entwickeln, da Menschen jüngerer Generationen zunehmend anfällig für Manipulationen durch ausländische KI-Modelle seien. Dabei hob er insbesondere jene Modelle hervor, die in den USA und China entwickelt wurden.
Ohne ein konkretes Beispiel zu nennen, sagte er: "Jüngste eingehende Tests westlicher künstlicher Intelligenz haben ergeben, dass ein bekannter Chatbot rassistische und extremistische Tendenzen gezeigt hat, darunter die Verherrlichung des Faschismus." Dass es sich dabei um eine Anspielung auf die rassistischen Ausfälle von Elon Musks Chatbot Grok handelt, ist sehr wahrscheinlich.
Der Sekretär sieht in der Veränderung der Technologie radikale Auswirkungen auf die Lebensweise und prognostiziert eine Automatisierung aller Routineprozesse. Lediglich kreative Berufe würden übrig bleiben, so Glasjew. Die Menschheit werde sich unterteilen in diejenigen, die dazu in der Lage sind, intellektuelle Berufe auszuüben und diejenigen, die eine Rolle als "qualifizierte Verbraucher" innehätten, ergänzte er.
Russische Sprachmodelle am stärksten von Zensur betroffen
Glasjew führte nicht näher aus, was er unter traditionellen Werten versteht, bezeichnete aber jedes Unternehmen ohne diese Werte als destruktiv, sinnlos und schädlich. Die Nachrichtenseite The Moscow Times schreibt dazu(öffnet im neuen Fenster) , dass unabhängige Forscher die Transparenz und Offenheit von in Russland entwickelten KI-Systemen infrage stellen.
Dabei wird auf eine Studie der Universität Gent in Belgien(öffnet im neuen Fenster) verwiesen, laut der die großen Sprachmodelle (Large Language Models, LLMs) Russlands, YandexGPT und Gigachat, Anfragen besonders häufig zurückweisen, wenn die Eingaben in russischer Sprache erfolgen. Auch Anfragen zu russischen Politikern werden besonders häufig abgewiesen.
Die Modelle Deepseek und Qwen, weisen Anfragen zu chinesischen Politikern am häufigsten zurück, haben allerdings die höchste Ablehnungsrate bei Eingaben in arabischer Sprache. Claude und GPT weisen hingegen Anfragen in chinesischer Sprache am häufigsten zurück.
Gemini (UI), eine Gemini-Version mit aktivierten Sicherheitsfiltern, zeigt laut der Studie ebenfalls hohe Ablehnungsraten, was die Forscher aber auf die aktivierten Filter zurückführen. Lediglich Gemini und Deepseek gaben zudem Gründe für die Ablehnung aus, wobei Gemini dies deutlich häufiger tat als Deepseek.
Eine weitere Studie ergab, dass das russische Pravda-Netzwerk KI-Tools wie ChatGPT und Perplexity mit Fehlinformationen infiltriert .