Anthropic zum Lieferkettenrisiko erklärt
Nach dem Scheitern der Gespräche schrieb der Minister(öffnet im neuen Fenster) : "Unter dem Deckmantel der scheinheiligen Rhetorik des 'effektiven Altruismus' haben sie versucht, das US-Militär mit Gewalt zur Unterwerfung zu zwingen – ein feiger Akt von unternehmerischem Virtue Signalling(öffnet im neuen Fenster) , das die Ideologie des Silicon Valley über das Leben der Amerikaner stellt." Seine Forderung lautete: "Das Kriegsministerium muss uneingeschränkten Zugang zu den Modellen von Anthropic für alle RECHTMÄSSIGEN Zwecke zur Verteidigung der Republik haben."
Darüber hinaus wies Hegseth das Verteidigungsministerium an, Anthropic als Lieferkettenrisiko für die nationale Sicherheit einzustufen. Für weitere sechs Monate würden die Dienste noch genutzt, "um einen reibungslosen Übergang zu einem besseren und patriotischeren Dienst zu ermöglichen" .
Der Streit erinnert an die Auseinandersetzung in den 1950er Jahren zwischen dem Physiker Robert Oppenheimer(öffnet im neuen Fenster) und der US-Regierung über die Nutzung von Atomwaffen. Weil Oppenheimer von der Wasserstoffbombe abriet, wurde ihm schließlich die Sicherheitsfreigabe entzogen.
Den aktuellen Berichten zufolge hing eine Einigung zwischen Anthropic und dem Pentagon nur an wenigen Formulierungen. So soll das Verteidigungsministerium bereit gewesen sein, in dem Vertragsentwurf enthaltene Hintertüren zu streichen. Doch das Pentagon hielt weiterhin daran fest, die KI-Systeme zur Erfassung und Analyse von nicht geheimen, kommerziellen Massendaten über US-Bürger zu nutzen, wie Standortdaten und deren Internetnutzung.
Einschränkung auf Clouddienst nicht ausreichend
Anthropic erklärte sich der New York Times zufolge zumindest bereit, seine Systeme dem Militärgeheimdienst NSA für die Analyse geheimer Daten bereitzustellen, die gemäß dem Foreign Intelligence Surveillance Act gesammelt würden. Zudem verlangte das Unternehmen eine rechtsverbindliche Zusage des Pentagons, die Technik nicht für nicht geheime, kommerzielle Daten zu verwenden.
Ungelöst blieb zudem der Einsatz der KI in autonomen Waffensystemen. Dem Bericht von The Atlantic zufolge gab es Überlegungen, wonach das Pentagon die Systeme nur in der Cloud und nicht in den Waffen selbst einsetzen darf. Demnach könnten Waffen, beispielsweise Drohnen, selbst Informationen sammeln, aber keine Tötungsentscheidungen treffen.
Anthropic sei mit dieser Lösung jedoch nicht zufrieden gewesen, berichtet das Magazin unter Berufung auf eine nicht namentlich genannte Person, die an den Verhandlungen beteiligt gewesen sei. Denn in modernen militärischen KI-Architekturen sei die Grenze zwischen Cloud und dezentralen Systemen (Edge) nicht mehr klar definiert. So könnten Drohnen auf dem Schlachtfeld nun über Mesh-Netzwerke gesteuert werden, die Cloudrechenzentren einschlössen. Anthropic habe schließlich die Idee verworfen, dass die Cloudbereitstellung das ethische Problem lösen könnte.
Das sieht die Konkurrenz von OpenAI offensichtlich anders.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.