Zum Hauptinhalt Zur Navigation

KI: Pentagon droht Anthropic wegen Anti-Kriegsregel

Das US-Verteidigungsministerium erwägt die Trennung von Anthropic . Denn das Unternehmen weigert sich, seine KI für militärischen Zwecke freizugeben.
/ Andreas Donath
8 Kommentare News folgen (öffnet im neuen Fenster)
US-Hubschrauber (Bild: U.S Navy Foto/Oberbootsmann Jon Rasmussen)
US-Hubschrauber Bild: U.S Navy Foto/Oberbootsmann Jon Rasmussen / CC0 1.0
Inhalt
  1. KI: Pentagon droht Anthropic wegen Anti-Kriegsregel
  2. KI verändert die Rüstungsbranche

Das Pentagon verlangt von vier großen KI-Unternehmen uneingeschränkten Zugang zu deren Technologie. OpenAI, Google, xAI und Anthropic sollen ihre Modelle für "alle rechtmäßigen Zwecke" bereitstellen. Dazu zählen nach Ansicht des Pentagons Waffenentwicklung, Geheimdienstoperationen und Kampfeinsätze.

Während drei Firmen dem Bericht von Axios(öffnet im neuen Fenster) zufolge zusagten, stellt sich Anthropic quer. Das Unternehmen bestehe auf Beschränkungen bei der militärischen Nutzung seines KI-Modells Claude, denn dessen Nutzungsrichtlinien verbieten ausdrücklich Gewaltanwendung, Waffenentwicklung und Überwachung.

Ein Regierungsvertreter bestätigte gegenüber dem Nachrichtenportal, dass das Pentagon einen Abbruch der Zusammenarbeit erwäge. Die Verhandlungen laufen seit Monaten – bisher ohne Durchbruch.

Besonders brisant: Das Wall Street Journal berichtete, Claude sei bereits bei der Venezuela-Operation zum Einsatz gekommen. Über die Partnerfirma Palantir wurde die KI offenbar für die Mission zur Ergreifung von Nicolás Maduro genutzt, wie Axios in einem früheren Artikel schreibt(öffnet im neuen Fenster) .

Technische Fragen bleiben ungeklärt

Ein Anthropic-Sprecher widersprach dieser Darstellung teilweise. Man habe den Einsatz von Claude für "bestimmte Operationen" nicht mit dem Pentagon diskutiert. Die Gespräche hätten sich auf grundsätzliche Aspekte der Nutzungsrichtlinie konzentriert.

Konkret geht es um zwei rote Linien: vollständig autonome Waffensysteme und Massenüberwachung im Inland. Anthropic will verhindern, dass Claude für Waffen verwendet wird, die ohne menschliche Kontrolle töten können. Solche Systeme wählen eigenständig Ziele aus und eliminieren sie.

Wie genau Claude bei der Venezuela-Aktion eingesetzt wurde, bleibt unklar. Die KI kann Dokumente analysieren und Informationen zusammenfassen – ähnlich wie ChatGPT. Ob es nur um Datenauswertung ging oder um direktere Unterstützung, wollte Anthropic nicht kommentieren.

Das Unternehmen betonte lediglich, dass jede Nutzung – privat oder staatlich – den eigenen Richtlinien entsprechen müsse. Man arbeite mit Partnern daran, die Einhaltung sicherzustellen.


Relevante Themen