Militärische KI-Nutzung: Altman räumt Fehler bei Pentagon-Deal ein
OpenAI-Chef Sam Altman hat Fehler bei seinen Verhandlungen mit dem US-Verteidigungsministerium eingeräumt. "Wir hätten die Veröffentlichung am Freitag nicht überstürzen sollen. Die Thematik ist äußerst komplex und erfordert klare Kommunikation" , schrieb Altman in einem Beitrag auf X(öffnet im neuen Fenster) und fügte hinzu: "Wir haben wirklich versucht, die Situation zu entschärfen und Schlimmeres zu verhindern, aber ich denke, es wirkte einfach nur opportunistisch und nachlässig."
OpenAI hatte am 27. Februar 2026 angekündigt, sich mit dem Pentagon auf die Nutzung seiner KI-Systeme für militärische Zwecke geeinigt zu haben . Altman beteuerte, dass alle geforderten Sicherheitsmaßnahmen gegen den Missbrauch der Systeme von der US-Regierung zugesichert worden seien.
Zuvor war es zum Bruch zwischen dem Konkurrenten Anthropic und der Pentagon-Führung unter Verteidigungsminister Pete Hegseth gekommen . Weil Anthropic auf weiteren Zugeständnissen beharrte, erklärte Hegseth die Firma zum Lieferkettenrisiko. Während Anthropics Claude anschließend an Popularität deutlich zulegte(öffnet im neuen Fenster) , war OpenAI mit einer Protestwelle konfrontiert .
Mehrere Punkte ergänzt
Laut Altman ergänzte OpenAI die Vereinbarung mit dem Pentagon anschließend um mehrere Punkte. So dürfe die KI mit Verweis auf gesetzliche Regelungen "nicht bewusst zur Überwachung von US-Bürgern und Staatsangehörigen im Inland eingesetzt werden" . Darüber hinaus habe die Regierung bestätigt, dass die Systeme nicht von den Geheimdiensten des Ministeriums wie der NSA genutzt werden dürften.
Ebenso wie Anthropic nannte Altman technische Defizite der Systeme als Grund für die Einschränkungen: "Es gibt viele Dinge, für die die Technik noch nicht ausgereift ist, und in vielen Bereiche verstehen wir die Abstriche für die Sicherheit noch nicht vollständig." Allerdings wollte der OpenAI-CEO auch nicht das Risiko eingehen, den ein vollständiger Verzicht auf die militärische KI-Nutzung mit sich bringen könnte. "Ich habe versucht, mich in die Lage zu versetzen, wie ich mich am Tag nach einem Angriff auf die USA oder dem Auftreten einer neuen Biowaffe fühlen würde, die wir hätten verhindern können" , schrieb er in einem weiteren Statement(öffnet im neuen Fenster) .
Kritiker halten Einschränkungen für unzureichend
Nach der Vereinbarung zwischen OpenAI und dem Pentagon hatten Kritiker die Einschränkungen als unzureichend moniert. Das Portal The Verge(öffnet im neuen Fenster) berichtete unter Berufung auf eine nicht namentlich genannte Quelle, dass der Vertrag von OpenAI wesentlich schwächer als der von Anthropic angestrebte ausgefallen sei.
In den Verhandlungen habe das Pentagon nicht auf die Forderung verzichtet, Massendaten über US-Bürger zu sammeln und zu analysieren. Wenn es technisch legal sei, könne das US-Militär die Technik von OpenAI für eine solche Massenüberwachung nutzen, behauptete demnach die Quelle. Und in den vergangenen Jahrzehnten habe die US-Regierung die Definition von "technisch legal" so weit ausgedehnt, dass sie weitreichende Massenüberwachungsprogramme und noch mehr umfasse.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.