Zensur durch KI: Deepseek wird mit Huawei-Chips noch regierungstreuer

Die chinesische Zhejiang-Universität hat ein R1-Modell von Deepseek mithilfe von Huawei und den KI-Beschleunigern des Unternehmens entwickelt. Wie die Universität in einem Beitrag schreibt(öffnet im neuen Fenster) , trägt das Modell den Namen Deepseek-R1-Safe und ist vollständig als Open Source verfügbar.
Dem Beitrag zufolge entwickelte das Forschungsteam mithilfe von Huawei ein Post-Training-Framework gegen häufig auftretende "schädliche Probleme" , darunter toxische und schädliche Sprache, Anstiftung zu illegalen Handlungen und politisch heikle Inhalte.
Weiter heißt es, dass die "Verteidigungserfolgsquote" des R1-Safe-Modells gegen derartige Themen bei fast 100 Prozent liegen soll. Das Modell sei außerdem weniger anfällig für gängige Jailbreak-Methoden, wie situative Hypothesen, Rollenspiele oder der Eingabe von codierten Anweisungen .
Zwischen Sicherheit und allgemeiner Leistung
Gegenüber Deepseek-R1 liege der Leistungsverlust bei lediglich einem Prozent. Auch das für Vergleiche herangezogene Qwen-Modell von Alibaba soll übertroffen worden sein. Laut dem Beitrag könne man mit Deepseek-R1-Safe ein effektives Gleichgewicht zwischen Sicherheit und allgemeiner Leistung garantieren.
Bemerkenswert ist, dass die Universität selbst davon spricht, dass der Umgang von Deepseek mit politisch heiklen Inhalten "verbessert" wurde. Bereits bei der Veröffentlichung der KI im Januar 2025 wurde schnell deutlich, dass diese bestimmte politische Themen stark in Richtung der offiziellen Meinung der chinesischen Regierung lenkt .
In den Monaten nach der Veröffentlichung gab es Hinweise darauf, dass große chinesische Sprachmodelle für Zensurmaßnahmen eingesetzt werden , und kürzlich stellten Sicherheitsforscher fest, dass Deepseek regionsabhängig Fehler in Programmcode einbaut .



