Zum Hauptinhalt Zur Navigation

Anthropic vs. Pentagon: Der Oppenheimer-Moment der KI-Forschung

Anthropic beharrte bis zuletzt auf Einschränkungen für die militärische Nutzung seiner KI -Systeme. Konkurrent OpenAI hat damit weniger Probleme.
/ Friedhelm Greis
1 Kommentare News folgen (öffnet im neuen Fenster)
Das US-Verteidigungsministerium schwenkt von Anthropic auf OpenAI um. (Bild: Al Drago/Reuters)
Das US-Verteidigungsministerium schwenkt von Anthropic auf OpenAI um. Bild: Al Drago/Reuters
Inhalt
  1. Anthropic vs. Pentagon: Der Oppenheimer-Moment der KI-Forschung
  2. Anthropic zum Lieferkettenrisiko erklärt
  3. OpenAI springt in die Bresche

Der Streit zwischen dem KI-Anbieter Anthropic und dem US-Verteidigungsministerium berührt ein grundsätzliches Thema: Inwieweit darf Software zur Massenüberwachung von Bürgern und zur autonomen Tötung von Menschen eingesetzt werden? Und welche Mitspracherechte haben Firmen, wenn der Staat eine Software für diese Zwecke nutzen will? Während Anthropic bis zuletzt auf Zusicherungen der US-Regierung pochte, behauptet Konkurrent OpenAI, künftig alle Risiken im Griff zu haben. Doch wer hat recht?

Inzwischen sind mehr Details über die Verhandlungen zwischen Anthropic und der US-Regierung bekannt geworden. Berichten der New York Times(öffnet im neuen Fenster) und des Magazins The Atlantic(öffnet im neuen Fenster) zufolge war das Pentagon unter Verteidigungsminister Pete Hegseth durchaus zu Zugeständnissen bereit. Doch vor einer gesetzten Frist am 27. Februar 2026 kam keine Vereinbarung mehr zustande.

Zwei zentrale Knackpunkte

Knackpunkte waren bis zuletzt der Einsatz der Anthropic-Systeme zur Massenüberwachung von US-Bürgern sowie die Frage, inwieweit KI-basierte Waffensysteme autonome Entscheidungen zur Tötung von Menschen treffen können. Anthropic bekräftigte nach dem Scheitern der Verhandlungen seine Position(öffnet im neuen Fenster) : "Erstens glauben wir nicht, dass die heutigen KI-Modelle zuverlässig genug sind, um in vollständig autonomen Waffen eingesetzt zu werden. Die Verwendung der aktuellen Modelle in dieser Weise würde amerikanische Soldaten und Zivilisten gefährden. Zweitens sind wir der Meinung, dass die massenhafte Überwachung der amerikanischen Bevölkerung eine Verletzung der Grundrechte darstellt."

Diese Bedingungen hatte das Pentagon ursprünglich akzeptiert. Im Jahr 2025 hatte sich Anthropic neben der Konkurrenz von Google, OpenAI und xAI um einen Vertrag mit dem US-Militär beworben. Den Berichten zufolge wurden nur die Systeme von Anthropic auf den geheimen Systemen des US-Militärs installiert und von den Mitarbeitern ausgiebig genutzt. Der Vertrag belief sich auf 200 Millionen US-Dollar.

Hegseth gegen "woke" KI

Doch im Januar 2026 forderte US-Verteidigungsminister Pete Hegseth in seiner neuen KI-Strategie die Aufhebung solcher Einschränkungen . Hegseth sagte dazu: "Die KI des Kriegsministeriums wird nicht woke sein. Sie wird für uns arbeiten. Wir entwickeln kriegsbereite Waffen und Systeme, keine Chatbots für die Lounge einer Eliteuniversität."

Die Entscheidung bedeutete, dass Anthropic seinen Vertrag neu verhandeln musste. Dabei beharrte Firmenchef Dario Amodei auf den Einschränkungen. Laut New York Times bestanden zudem persönliche Animositäten zwischen Emil Michael, dem Verhandlungsführer des Pentagons, und Amodei, die sich schon aus früheren Verhandlungen im Silicon Valley kannten. Michael warf Amodei schließlich vor(öffnet im neuen Fenster) , ein Lügner zu sein und einen "Gottkomplex" zu haben. "Er will nichts weiter, als das US-Militär persönlich zu kontrollieren, und nimmt dabei sogar in Kauf, die Sicherheit unseres Landes zu gefährden" , schrieb Michael.

Hegseth stilisierte den Streit zu einem Machtkampf zwischen der US-Regierung und Techkonzernen hoch.


Relevante Themen