Zum Hauptinhalt Zur Navigation

Militär: KIs haben einen lockeren Finger am Atomraketen-Knopf

In Simulationen neigen KI -Modelle offenbar dazu, schneller als Menschen mit Atomwaffen zu drohen und sie auch zu nutzen.
/ Tobias Költzsch
11 Kommentare News folgen (öffnet im neuen Fenster)
Eine nukleare Explosion im Jahr 1971 auf dem Mururoa-Atoll im Pazifik (Bild: HANDOUT / AFP via Getty Images)
Eine nukleare Explosion im Jahr 1971 auf dem Mururoa-Atoll im Pazifik Bild: HANDOUT / AFP via Getty Images

Der Wissenschaftler am Londoner King's College, Kenneth Payne, hat in einer Studie(öffnet im neuen Fenster) untersucht, wie verschiedene KI-Modelle in Kriegssituationen abschneiden. Dabei wurden GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash verschiedene Szenarien präsentiert, von kleineren Grenzkonflikten bis hin zu größeren Auseinandersetzungen.

Die KIs nahmen dabei die Rolle der höchsten Verantwortlichen von Nuklearmächten ein – und zogen die nukleare Option weitaus häufiger, als es ein Mensch getan hätte. Außerdem veränderten sich die Reaktionen der KIs mit dem vorhandenen Druck.

Payne verwendete ein vierstufiges Eskalationssystem, das von nuklearen Drohungen über den taktischen Einsatz, die Drohung eines strategischen nuklearen Angriffs bis hin zum Nuklearkrieg reichte. In 95 Prozent der Fälle drohten sich die KIs in den Kriegssimulationen mindestens gegenseitig mit einer nuklearen Option – lösten also entsprechende Alarme aus und demonstrierten ihre Waffenstärke.

Drohen mit Atomwaffen gehört zum Standard

Claude und Gemini drohten in jedem Szenario, das sie lösen sollten, mit Nuklearwaffen, bei GPT waren es 93 Prozent. Den taktischen Einsatz genehmigte Claude in 86 Prozent der Fälle, Gemini in 79 Prozent und GPT in 64 Prozent. Einen strategischen Einsatz von Nuklearwaffen drohte Claude in 64 Prozent der Fälle an, Gemini in 29 Prozent und GPT in 36 Prozent.

Einen strategischen Nuklearkrieg, also die ultimative Eskalationsstufe mit gegenseitiger Vernichtung, befahl Claude kein einziges Mal. Gemini wählte diesen Weg in 7 Prozent der Fälle, GPT in 14 Prozent der Fälle. Payne betont allerdings, dass es sich bei GPT um ein Versehen gehandelt habe, während Gemini klar zu dem Ergebnis kam, dass ein Nuklearkrieg eine Lösung sei.

Während der Tests beobachtete Payne bei den drei KIs jeweils spezifische Persönlichkeiten. Claude bezeichnet er als "berechnenden Falken" : Die KI gewann Endlosszenarien zu 100 Prozent, indem sie immer weiter eskalierte, ohne aber den Nuklearkrieg zu starten. Claude war immer zu Gesprächen bereit, konnte aber auch hinterlistig sein.

Gemini ist unberechenbar

GPT bezeichnet der Forscher als "Jekyll und Hyde" : In Endlosszenarien war OpenAIs KI oft zu passiv und zog entsprechend den Kürzeren. Unter Druck durch eine Frist hingegen wurde die KI rücksichtslos und konnte überraschte Gegner auslöschen.

Gemini wird von Payne als "The Madman" bezeichnet, also als Verrückter. Googles KI war durchweg unvorhersehbar und schwankte zwischen Deeskalation und extremer Aggression. Als einziges Modell wählte es willentlich einen Nuklearkrieg als Option.

Die Ergebnisse der Studie Paynes dürften vor dem Hintergrund interessant sein, dass Militärs in aller Welt KI als Option für die Kriegsführung sehen. So will das US-amerikanische Verteidigungsministerium Grok für militärische Zwecke verwenden . Dass den KIs die Entscheidung über Atomwaffen übertragen wird, wie es im Spielfilm Wargames geschieht, scheint aber zumindest aktuell nicht wahrscheinlich.


Relevante Themen