KI oder Kriegsrecht: Pentagon droht Anthropic mit Notstandsgesetz
Verteidigungsminister Pete Hegseth hat dem KI-Unternehmen Anthropic ein Ultimatum gestellt: Wenn das Unternehmen bis Freitagabend keine Einigung über den militärischen Zugang zu seiner Technik erzielt, will das Pentagon den Defense Production Act – ein Notstandsgesetz aus Kriegszeiten – gegen das Unternehmen einsetzen.
Das gehe aus Angaben von Personen hervor, die mit den Gesprächen vertraut seien, berichtet die Washington Post(öffnet im neuen Fenster) . Hegseth soll die Drohung während eines Treffens mit Anthropic-CEO Dario Amodei am Dienstag ausgesprochen haben.
Zwei rote Linien
Der Konflikt dreht sich um zwei konkrete Einschränkungen, die Anthropic beibehalten will: Das KI-Modell Claude soll weder für vollständig autonome Waffensysteme eingesetzt noch zur Massenüberwachung US-amerikanischer Bürger genutzt werden. Hegseths Team sieht darin eine unzulässige Einmischung eines Privatunternehmens in militärische Entscheidungshoheit.
Ein hochrangiger Vertreter des Verteidigungsministeriums erklärte der Washington Post: Sollte Anthropic bis 17:01 Uhr Freitagsnachmittag nicht einlenken, werde Hegseth "den Defense Production Act gegen Anthropic einsetzen und das Unternehmen zwingen, für das Pentagon tätig zu sein – ob es das will oder nicht." Der Streit habe "nichts mit Massenüberwachung und autonomen Waffen zu tun" .
Zweifel an der Rechtmäßigkeit
Rechtsexperten bezweifeln laut Washington Post, ob das Gesetz überhaupt in der angedrohten Weise angewendet werden kann. Historisch wurde der Defense Production Act vor allem eingesetzt, um physische Versorgungsengpässe zu beheben – zuletzt während der Covid-19-Pandemie zur Sicherung medizinischer Ausrüstung. Ob er auch dazu dienen dürfe, Lizenzbedingungen für Software außer Kraft zu setzen, sei rechtlich mehr als fraglich.
Ein 200-Millionen-Dollar-Vertrag auf dem Spiel
Anthropic ist offenbar bereit, die Verhandlungen – und seinen 200-Millionen-Dollar-Vertrag mit dem Pentagon – platzen zu lassen, anstatt seine Grundsätze aufzugeben. Verweigert Anthropic die Zusammenarbeit, drohen dem Unternehmen zusätzlich Konsequenzen als klassifiziertes Lieferkettenrisiko – mit Auswirkungen auch auf Firmen, die Anthropics Technik als Subunternehmer nutzen.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.