Militärische KI: Pentagon hält Anthropic für "inakzeptables Risiko"
Das US-Verteidigungsministerium will keine Einschränkungen von KI-Anbietern bei der Nutzung von deren Systemen akzeptieren. Das geht aus einer Klageerwiderung hervor, die das Pentagon im Prozess mit dem US-Anbieter Anthropic einreichte. In dem 40-seitigen Dokument(öffnet im neuen Fenster) (PDF) verteidigt die US-Regierung ihre Entscheidung, Anthropic als Lieferkettenrisiko einzustufen .
Gegen diese Einstufung hatte Anthropic am 9. März 2026 eine Klage eingereicht . Der Klageschrift zufolge ist das Vorgehen der US-Regierung "ebenso rechtswidrig wie beispiellos" . Die Maßnahmen von Verteidigungsminister Pete Hegseths seien willkürlich, launenhaft und stellten einen Ermessensmissbrauch sowie eine "Vergeltungsmaßnahme" gegen Anthropic für dessen Äußerungen und andere geschützte Aktivitäten dar.
Hegseth forderte Vertragsänderungen
Diese Darstellung wies das Pentagon nun zurück. Dem Schreiben zufolge geht die Auseinandersetzung auf eine Anweisung Hegseths von Anfang 2026 zurück. Darin forderte der Minister, "in alle Verträge über KI-Dienstleistungen eine Klausel aufzunehmen, die es dem Pentagon gestattet, die Technologie für jeden rechtmäßigen Zweck zu nutzen" . Wäre dies nicht der Fall, könnte ein KI-Anbieter Einfluss darauf gewinnen, wie das Ministerium seine Operationen durchführe und welche Missionen es auswähle, hieß es zur Begründung.
Anthropic beharrte in den Verhandlungen jedoch darauf, dass seine KI-Systeme wie Claude nicht zur Überwachung der US-Bürger und nicht für autonome Entscheidungen zur Tötung von Menschen genutzt werden dürften.
In den Verhandlungen kamen dem Schreiben zufolge Zweifel auf, ob "Anthropic ein vertrauenswürdiger Partner sei, mit dem das Ministerium in diesem hochsensiblen Bereich einen Vertrag abschließen wolle" . Denn das Pentagon habe befürchtet, dass der Zugang von Anthropic zur technischen und operativen Infrastruktur für die Kriegsführung "ein inakzeptables Risiko in die Lieferketten des Verteidigungsministeriums einbringen würde" .
Pentagon: KI-Systeme sind anfällig für Manipulationen
Zur Begründung hieß es: "Schließlich sind KI-Systeme äußerst anfällig für Manipulationen, und Anthropic könnte versuchen, seine Technik zu deaktivieren oder das Verhalten seines Modells präventiv zu ändern – entweder vor oder während laufender Kriegseinsätze -, falls Anthropic nach eigener Einschätzung der Ansicht ist, dass seine unternehmensinternen 'roten Linien' überschritten werden." Das sei ein "inakzeptables Risiko für die nationale Sicherheit" .
Zudem wies das Pentagon die Auffassung von Anthropic zurück, bei der Einstufung handele es sich um eine "Vergeltungsmaßnahme" gegen Anthropic für dessen Äußerungen und andere geschützte Aktivitäten. Die Bedenken der US-Regierung "stehen in keinem Zusammenhang mit den Äußerungen von Anthropic, und niemand hat versucht, die Meinungsäußerung von Anthropic einzuschränken" . Hätte Anthropic die vertragliche Klausel der Regierung über "jeden rechtmäßigen Zweck" akzeptiert, wären die beanstandeten Maßnahmen nicht erfolgt.
In den Verfahren wurden inzwischen mehr als 100 Anträge und Dokumente eingereicht(öffnet im neuen Fenster) . So forderte der US-Softwarehersteller Microsoft in einem Schreiben , die Einstufung von Anthropic als Lieferkettenrisiko für das US-Militär vorläufig zu untersagen. Zuvor hatten sich bereits rund 40 KI-Entwickler und -Forscher von OpenAI und Google Deepmind hinter die Klage von Anthropic gestellt.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



