Zum Hauptinhalt Zur Navigation

Streit um KI-Modell: Anthropic kann Claude beim US-Militär nicht manipulieren

Im Streit mit dem Pentagon stellte Anthropic klar, dass es keine Möglichkeit hat, Claude in Systemen des US-Militärs zu manipulieren.
/ Mike Faust
5 Kommentare News folgen (öffnet im neuen Fenster)
Anthropic wehrt sich gegen die Behauptung, Claude beim US-Militär manipulieren zu können. (Bild: Michael M. Santiago/Getty Images)
Anthropic wehrt sich gegen die Behauptung, Claude beim US-Militär manipulieren zu können. Bild: Michael M. Santiago/Getty Images

Das KI-Unternehmen Anthropic hat in einer Eingabe vor Gericht darauf hingewiesen, dass es keine Möglichkeit habe, das KI-Modell Claude zu manipulieren, wenn es vom US-Militär eingesetzt werde. Wie The Wired berichtet(öffnet im neuen Fenster) , begegnet das Unternehmen damit entsprechenden Behauptungen des US-Verteidigungsministeriums . Unter anderem damit hatte es die Einstufung Anthropics als Lieferkettenrisiko begründet.

In einer Erklärung schrieben Anwälte der US-Regierung, dass das Verteidigungsministerium nicht dazu verpflichtet sei, "das Risiko zu tolerieren, kritische militärische Systeme in entscheidenden Momenten der nationalen Verteidigung und laufender Militäroperationen zu gefährden" .

Anthropic könnte Militäroperationen stören, indem das Unternehmen den Zugriff auf Claude unterbinde oder schädliche Updates aufspiele, falls es bestimmte Anwendungen missbillige, so die Regierungsvertreter.

Anthropic hat nicht den erforderlichen Zugriff

Thiyagu Ramasamy, Leiter des öffentlichen Sektors bei Anthropic, schrieb dazu: " Anthropic hatte nie die Möglichkeit, Claude zum Stillstand zu bringen, dessen Funktionalität zu verändern, den Zugriff zu sperren oder militärische Operationen anderweitig zu beeinflussen oder zu gefährden."

Anthropic habe zudem "nicht den erforderlichen Zugriff, um die Technologie zu deaktivieren oder das Verhalten des Modells vor oder während laufender Operationen zu verändern" .

Es gebe keine Hintertür oder andere Möglichkeiten, dass sich Anthropic-Angestellte in ein System des US-Verteidigungsministeriums einloggen, "um die Modelle während eines Einsatzes zu verändern oder zu deaktivieren; die Technologie funktioniert schlichtweg nicht so" , erläuterte Ramasamy.

Er führte aus, dass Updates nur mit Genehmigung der US-Regierung und deren Cloud-Anbietern eingespielt werden können und Anthropic keinen Zugriff auf die Claude-Eingabeaufforderung des US-Militärs oder andere Daten habe, die militärische Anwender in Claude eingeben.

Anthropic reichte am 9. März 2026 Klage gegen die Einstufung als Lieferkettenrisiko durch das US-Verteidigungsministerium ein und bezeichnete das Vorgehen der US-Regierung als "ebenso rechtswidrig wie beispiellos" . Zuvor beharrte Anthropic in Verhandlungen darauf, dass Claude nicht zur Überwachung von US-Bürgern und nicht für autonome Entscheidungen zur Tötung von Menschen genutzt werden dürfe.


Relevante Themen