Zum Hauptinhalt Zur Navigation Zur Suche

Lieferkettenrisiko: Anthropic klagt gegen Einstufung durch das Pentagon

Im Streit mit der US-Regierung gibt KI -Entwickler Anthropic nicht nach. Allerdings seien die Auswirkungen für Kunden nicht gravierend.
/ Friedhelm Greis
Kommentare undefined News folgen (öffnet im neuen Fenster)
Anthropic-Chef Dario Amodei geht juristisch gegen das Pentagon vor. (Bild: Bhawika Chhabra/Reuters)
Anthropic-Chef Dario Amodei geht juristisch gegen das Pentagon vor. Bild: Bhawika Chhabra/Reuters
Inhalt
  1. Lieferkettenrisiko: Anthropic klagt gegen Einstufung durch das Pentagon
  2. Klage am 9. März 2026 eingereicht

Der US-amerikanische KI-Entwickler Anthropic zieht im Streit mit dem US-Verteidigungsministerium vor Gericht. Die Einstufung als Lieferkettenrisiko durch das Pentagon sei nicht haltbar, schrieb Firmenchef Dario Amodei in einem Blogbeitrag(öffnet im neuen Fenster) . Daher sehe sich Anthropic gezwungen, die Entscheidung "gerichtlich anzufechten" .

Hintergrund der Einstufung ist Anthropics Weigerung, den US-Behörden uneingeschränkten Zugang zu seinen KI-Modellen zu gewähren. Knackpunkte in den gescheiterten Verhandlungen waren der Einsatz der Anthropic-Systeme zur Massenüberwachung von US-Bürgern sowie die Frage, inwieweit KI-basierte Waffensysteme autonome Entscheidungen zur Tötung von Menschen treffen können.

Aus diesem Grund stufte das Pentagon das KI-Unternehmen am 4. März 2026 als Lieferkettenrisiko ein. Zuvor hatte US-Verteidigungsminister Pete Hegseth gedroht(öffnet im neuen Fenster) : "Mit sofortiger Wirkung darf kein Auftragnehmer, Lieferant oder Partner, der mit dem US-Militär Geschäfte macht, kommerzielle Aktivitäten mit Anthropic durchführen." Das würde bedeuten, dass der US-Konzern Amazon beispielsweise nicht mehr seine Server für Anthropic bereitstellen dürfte.

Pentagon nutzt weiterhin Anthropic

Doch diese Interpretation weist Anthropic entschieden zurück. Das soll auch aus dem offiziellen Schreiben des Pentagon hervorgehen. Die Formulierungen deckten sich mit einer früheren Einschätzung von Anthropic, wonach "die überwiegende Mehrheit unserer Kunden von einer solchen Einstufung nicht betroffen ist" . Die Einstufung beziehe sich nur "auf die Nutzung von Claude durch Kunden im Rahmen von Verträgen mit dem US-Kriegsministerium, nicht auf die gesamte Nutzung von Claude durch Kunden mit solchen Verträgen" .

Der US-Softwarekonzern Microsoft gelangte inzwischen ebenfalls zu der Einschätzung , dass die KI-Modelle von Anthropic ein Teil von Microsofts KI-Angebot bleiben dürfen.

Entschuldigung bei OpenAI

Amodei will trotz der Klage sicherstellen, dass die KI-Modelle weiterhin von Soldaten und nationalen Sicherheitsexperten "inmitten größerer Kampfeinsätze nicht von wichtigen Instrumenten abgeschnitten werden" . Damit bezieht sich Amodei auf den Angriff der USA auf den Iran. Paradoxerweise will das Pentagon selbst die Tools von Anthropic in den kommenden Monaten weiterhin nutzen.

Im selben Beitrag bat Amodei um Entschuldigung, weil er in einem internen Memo(öffnet im neuen Fenster) den Konkurrenten OpenAI der Lüge bezichtigt hatte. Darin ging es vor allem um die Frage, inwieweit sich die Vereinbarungen zwischen OpenAI und dem Pentagon von denjenigen unterschieden, die Anthropic angeboten worden waren.


Relevante Themen