KI: Pentagon droht Anthropic wegen Anti-Kriegsregel
Das Pentagon verlangt von vier großen KI-Unternehmen uneingeschränkten Zugang zu deren Technologie. OpenAI, Google, xAI und Anthropic sollen ihre Modelle für "alle rechtmäßigen Zwecke" bereitstellen. Dazu zählen nach Ansicht des Pentagons Waffenentwicklung, Geheimdienstoperationen und Kampfeinsätze.
Während drei Firmen dem Bericht von Axios(öffnet im neuen Fenster) zufolge zusagten, stellt sich Anthropic quer. Das Unternehmen bestehe auf Beschränkungen bei der militärischen Nutzung seines KI-Modells Claude, denn dessen Nutzungsrichtlinien verbieten ausdrücklich Gewaltanwendung, Waffenentwicklung und Überwachung.
Ein Regierungsvertreter bestätigte gegenüber dem Nachrichtenportal, dass das Pentagon einen Abbruch der Zusammenarbeit erwäge. Die Verhandlungen laufen seit Monaten – bisher ohne Durchbruch.
Besonders brisant: Das Wall Street Journal berichtete, Claude sei bereits bei der Venezuela-Operation zum Einsatz gekommen. Über die Partnerfirma Palantir wurde die KI offenbar für die Mission zur Ergreifung von Nicolás Maduro genutzt, wie Axios in einem früheren Artikel schreibt(öffnet im neuen Fenster) .
Technische Fragen bleiben ungeklärt
Ein Anthropic-Sprecher widersprach dieser Darstellung teilweise. Man habe den Einsatz von Claude für "bestimmte Operationen" nicht mit dem Pentagon diskutiert. Die Gespräche hätten sich auf grundsätzliche Aspekte der Nutzungsrichtlinie konzentriert.
Konkret geht es um zwei rote Linien: vollständig autonome Waffensysteme und Massenüberwachung im Inland. Anthropic will verhindern, dass Claude für Waffen verwendet wird, die ohne menschliche Kontrolle töten können. Solche Systeme wählen eigenständig Ziele aus und eliminieren sie.
Wie genau Claude bei der Venezuela-Aktion eingesetzt wurde, bleibt unklar. Die KI kann Dokumente analysieren und Informationen zusammenfassen – ähnlich wie ChatGPT. Ob es nur um Datenauswertung ging oder um direktere Unterstützung, wollte Anthropic nicht kommentieren.
Das Unternehmen betonte lediglich, dass jede Nutzung – privat oder staatlich – den eigenen Richtlinien entsprechen müsse. Man arbeite mit Partnern daran, die Einhaltung sicherzustellen.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.