OpenAI springt in die Bresche
Das Unternehmen sprang für Anthropic ein und veröffentlichte die Grundzüge seiner Vereinbarung mit dem Pentagon(öffnet im neuen Fenster) . Demnach erklärte sich die US-Regierung bereit, die KI-Systeme nicht zur Massenüberwachung der US-Bürger und nicht direkt in autonomen Waffensystemen einzusetzen. Zudem soll OpenAI nicht für "weitreichende autonome Entscheidungen" genutzt werden, beispielsweise für Sozialkreditsysteme.
Das bedeutet zum einen, dass das Pentagon die Systeme nur auf Cloudservern betreiben darf. Zum anderen ist jede Nutzung zur Massenüberwachung erlaubt, solange die Zwecke "im Einklang mit geltendem Recht, operativen Erfordernissen und etablierten Sicherheits- und Aufsichtsprotokollen" stehen.
OpenAI: Massenüberwachung bleibt ausgeschlossen
In einem FAQ verteidigt OpenAI sein Vorgehen. So soll es der US-Regierung nicht möglich sein, einfach die bestehenden Gesetze zu ändern, um die KI-Systeme für neue Zwecke nutzen zu können. "Selbst wenn sich diese Gesetze oder Richtlinien in Zukunft ändern, muss die Nutzung unserer Systeme daher weiterhin den im Vertrag festgelegten Standards entsprechen" , heißt es zur Begründung.
OpenAI zeigte sich zuversichtlich, dass eine Massenüberwachung von US-Bürgern "aufgrund unserer Sicherheitsarchitektur, der Vertragsformulierungen und bestehender Gesetze, die die Überwachung im Inland durch das US-Kriegsministerium stark einschränken" , nicht möglich sei. Zudem würden zur zusätzlichen Absicherung auch Mitarbeiter von OpenAI eingebunden.
Die Entscheidung des Pentagons, Anthropic als Lieferkettenrisiko einzustufen, lehnt OpenAI in diesem Zusammenhang ab. Diese Position habe man der Regierung "deutlich gemacht" .
Anthropic als Lieferkettenrisiko?
Die Folgen dieser Entscheidung, die bislang noch nicht auf ein US-amerikanisches Unternehmen angewandt wurde, sind unklar. Hegseth schrieb in seinem Statement: "Mit sofortiger Wirkung darf kein Auftragnehmer, Lieferant oder Partner, der mit dem US-Militär Geschäfte macht, kommerzielle Aktivitäten mit Anthropic durchführen." Das würde bedeuten, dass der US-Konzern Amazon beispielsweise nicht mehr seine Server für Anthropic bereitstellen dürfte.
Anthropic wies in einem Statement jedoch darauf hin: "Der Minister hat keine gesetzliche Grundlage für diese Aussage. Rechtlich gesehen kann eine Risikoeinstufung in der Lieferkette gemäß 10 USC 3252 nur die Nutzung von Claude im Rahmen von Verträgen mit dem US-Verteidigungsministerium betreffen. Sie hat keinen Einfluss darauf, wie Auftragnehmer Claude für andere Kunden einsetzen."
Laut Anthropic sind von der Einstufung nur Auftragnehmer des US-Militärs betroffen, allerdings nur bei der Nutzung von Claude im Rahmen von Verträgen mit dem US-Verteidigungsministerium. Die Nutzung für alle anderen Zwecke bleibe unberührt.
Sollte Hegseth seine Drohung wahrmachen und Anthropic formal zu einem Lieferkettenrisiko erklären, wäre eine Klage gegen die Entscheidung sehr wahrscheinlich. Dann müssten am Ende die Gerichte die Grundsatzfrage klären, welchen Einfluss die Entwickler über die Nutzung ihrer Software behalten können.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



