Zum Hauptinhalt Zur Navigation

KI-Regulierung: Anthropic weicht Sicherheitsvorgaben für Claude auf

Anthropic revidiert sein Versprechen, neue Modelle erst nach garantierten Sicherheitsnachweisen zu trainieren.
/ Nils Matthiesen
Kommentare News folgen (öffnet im neuen Fenster)
Anthropic lockert seine KI-Sicherheitsregeln. (Bild: Anthropic)
Anthropic lockert seine KI-Sicherheitsregeln. Bild: Anthropic

Der KI-Entwickler Anthropic hat seine zentrale Selbstverpflichtung aufgegeben, hochmoderne KI-Systeme nur dann zu trainieren oder zu veröffentlichen, wenn deren Sicherheit im Vorfeld garantiert werden kann. In einem Interview mit Time(öffnet im neuen Fenster) bestätigte das Unternehmen die Abkehr von einer Richtlinie, die ursprünglich als Vorbild für die Branche galt.

Die neu gefasste Responsible Scaling Policy(öffnet im neuen Fenster) (RSP) ersetzt strikte Bedingungen durch ein flexibleres Framework. Bisher sah die RSP faktisch vor, die Entwicklung ab bestimmten Leistungsstufen zu pausieren, bis vordefinierte Sicherheitsmaßnahmen greifen. Zwar hatten Konkurrenten wie OpenAI und Google Deepmind kurz nach der ersten RSP-Veröffentlichung ähnliche Frameworks übernommen, doch Anthropic galt lange als strengster Verfechter dieser proaktiven Pausen.

Strategische Neuausrichtung und externer Druck

Anthropic bezeichnet die Änderung als pragmatische Anpassung an ein Marktumfeld, das von hoher Iterationsgeschwindigkeit geprägt ist. Neben dem kommerziellen Wettbewerb stehen jedoch weitere Motive im Raum. Berichten(öffnet im neuen Fenster) zufolge könnte auch Druck aus dem US-Verteidigungsministerium eine Rolle bei der Neuausrichtung spielen. Die Abkehr von kategorischen Entwicklungsstopps ermöglicht es dem Unternehmen, agiler auf geopolitische und sicherheitspolitische Anforderungen zu reagieren.

Die RSP war von Beginn an als vorläufiges Framework konzipiert. Anthropic betonte bereits bei der Einführung(öffnet im neuen Fenster) im September 2023, dass es sich um eine "frühe Iteration" handle und "Kurskorrekturen mit an Sicherheit grenzender Wahrscheinlichkeit notwendig" würden. Dass die ursprüngliche Fassung in der Öffentlichkeit oft als unumstößliche, dauerhafte Bindung wahrgenommen wurde, liegt auch an der damals sehr defensiven Kommunikation des Unternehmens selbst.

Kritik an der Wirksamkeit

Die Anpassung stößt auf Kritik bei Beobachtern der Branche. Nik Kairinos(öffnet im neuen Fenster) , CEO von Raids AI, wertet den Schritt als Beleg dafür, dass freiwillige Selbstverpflichtungen im Zweifelsfall revidiert werden. Auch Chris Painter, Direktor für Policy bei Metr (einer gemeinnützigen Organisation zur Risikobewertung von KI-Modellen), sieht die neue RSP als schlechtes Signal(öffnet im neuen Fenster) für die Fähigkeit der Welt, potenzielle KI-Katastrophen zu bewältigen. Er warnt Anthropic vor einem "Frog-Boiling" -Effekt: Ohne binäre Schwellenwerte, die als Warnsignal dienen, könnten sich Risiken schleichend aufbauen, ohne dass ein klarer Moment entsteht, der Alarm auslöst.

Parallel zur internen Lockerung investierte Anthropic 20 Millionen US-Dollar(öffnet im neuen Fenster) in Public First Action, um Kandidaten zu unterstützen, die sich für eine gesetzliche KI-Regulierung einsetzen.

Obwohl Anthropic betont, dass die neuen Roadmaps den internen Druck zur Sicherheitsforschung aufrechterhalten, signalisiert die Aufweichung der RSP eine allgemeine Kalibrierung in der Branche: Im Zweifel scheint die Wettbewerbsfähigkeit schwerer als die im Vorfeld garantierte Schadensbegrenzung zu wiegen.


Relevante Themen