Skynet lässt grüßen: KI als Wächter über die nuklearen Arsenale

Die USA modernisieren nicht nur ihr Atomwaffenarsenal, sondern auch das Führungs- und Befehlssystem. Dieses System besteht aus fliegenden Relaisstationen, bodengebundenen Kommandostellen, Aufklärungs- und Kommunikationssatelliten und den eigentlichen Waffenträgern.
Es beliefert den US-Präsidenten mit allen nötigen Informationen und übermittelt seine Befehle. Um dieses System schneller und sicherer zu machen, wollen die USA verstärkt künstliche Intelligenz einsetzen.
Dabei sind sie nicht alleine. Auch die anderen Atommächte schlagen diesen Weg ein. Neben den USA ist China am weitesten fortgeschritten; zudem zog das Land beim Thema KI jüngst mit den USA gleich.
USA setzen auf KI
In einer internationalen Krise ist Zeit ein knappes Gut. Die Flugzeiten ballistischer Raketen sind so kurz, dass den Verantwortlichen nur Minuten bleiben, um eine Bedrohungslage richtig einzuschätzen. In den USA diskutieren Militärexperten und Planer darüber, wie sich KI in die nukleare Befehlskette einfügen lasse.
"Wenn wir über KI nicht nachdenken und KI auch nicht in Betracht ziehen, werden wir verlieren – und ich habe kein Interesse daran, zu verlieren," sagte Generalmajor Ty Neuman während einer Podiumsdiskussion auf dem diesjährigen Warfare Symposium (Symposium für Kriegsführung) der US Air Force Association.
Neuman ist Direktor für strategische Planungen, Programme und Anforderungen beim Air Force Global Strike Command, das auch für die Ausführung eines Nuklearangriffs zuständig ist(öffnet im neuen Fenster) . Auf dem Symposium debattierten hohe Militärs, wie künstliche Intelligenz die sogenannte NC3-Architektur (Nuclear Command, Control and Communications) verbessern könne.
NC3 steht für das Führungs- und Frühwarnsystem der US-Nuklearstreitkräfte. Es besteht aus drei Bereichen: Führung und Kommunikation, Frühwarnsystem und den auch Shooter genannten Waffenträgern.
"KI muss Teil der nächsten Generation sein"
Zum Kommunikationssystem gehören Satelliten, fliegende Relaisstationen und Befehlszentralen sowie Leitstände am Boden. Das System verbindet die National Command Authority, also den US-Präsidenten, mit den nuklearen Streitkräften. Teil des Frühwarnsystems sind Aufklärungssatelliten, Frühwarnflugzeuge und bodengebundene Radarstationen.
Die Waffenträger umfassen alle nuklearfähigen Waffensysteme – also die sogenannte Triade aus landgestützten Raketen, Langstreckenbombern und U-Booten mit ballistischen Raketen. In den nächsten Jahren werden auch wieder nuklear bestückte Mittelstreckenraketen hinzukommen. Taktische Nuklearwaffen, die von Kampfflugzeugen wie der F-35 oder der F-15 abgeworfen werden, gehören ebenfalls zu den Shootern.
"KI muss Teil des NC3 der nächsten Generation sein," sagte Neuman weiter. Und das nicht nur wegen schnellerer Datenverarbeitung und Kommunikation. KI-Tools leisten weitaus mehr, sie können etwa Vorhersagen über das Verhalten eines möglichen Gegners machen, Trends und historische Daten analysieren. Sie können außerdem das ganze NC3-System gegen Cyberangriffe schützen.
KI treibt den Rüstungswettlauf an
China und die USA liefern sich in der strategischen Rüstung und bei der Entwicklung künstlicher Intelligenz einen harten Wettbewerb. KI wirkt dabei als Treiber, man könnte auch sagen als Brandbeschleuniger. Bis Anfang des Jahres rechneten sich die USA Chancen aus, den Wettbewerb um die leistungsfähigeren KIs zu gewinnen und Chinas Fortschritte nach Kräften zu behindern.
Allerdings war China auch ohne importierte Technologie, etwa Halbleiter, in der Lage, leistungsfähige KIs zu entwickeln. Die chinesische Firma Deepseek stellte im Januar dieses Jahres ihre KI R-1 vor, deren Fähigkeiten denen der aktuellsten KI von Open AI entsprechen. R-1 ist obendrein preiswerter.
US-Präsident Donald Trump suchte mit Auflage des 500 Milliarden US-Dollar umfassenden KI-Infrastrukturprojektes Stargate auch den Kontakt zur chinesischen Führung. Am 17. Januar gab er bekannt, er habe den direkten Dialog mit Staatschef Xi Jinping über mögliche Wege der Zusammenarbeit aufgenommen(öffnet im neuen Fenster) .
Tatsächlich sollte es nicht im Interesse der beiden Großmächte sein, sich in einen möglicherweise gefährlichen und risikoreichen Rüstungswettlauf zu verstricken. KI verstärkt nicht nur die Fähigkeiten der Gegenspieler, sie kann selbst als Waffe dienen, um das Kommunikations- und Befehlsnetz des Gegners anzugreifen oder die Datenbanken gegnerischer KIs zu kompromittieren.
Außerdem steigen die Risiken von KI mit ihrer Verbreitung. Nationalstaaten wie die traditionellen Atommächte sind eher daran interessiert, Risiken für sich zu begrenzen. Aber sogenannte Rogue States oder nicht-staatliche Akteure könnten versuchen, mit ihren KIs einen mächtigeren Gegenspieler zu übertrumpfen.
Die drei Arten von KI
In der Studie Nuclear Weapons and Artificial Intelligence(öffnet im neuen Fenster) unterscheidet der Sipri-Experte Vladislav Chernavskikh drei verschiedene Arten von künstlicher Intelligenz.
Regelbasierte KI ist schon länger Teil des Kommando- und Führungssystems der Atommächte. Die USA und die frühere Sowjetunion führten sie während des Kalten Krieges ein. Diese Art der KI gilt als berechenbar und transparent. Sie arbeitet auf der Basis von Regeln der Entwickler.
Eingesetzt werden diese KIs überall dort, wo massenhaft und schnell Daten verarbeitet werden müssen, etwa beim Auswerten und Zusammenführen von Beobachtungsdaten oder beim Aufbau zuverlässiger Kommunikationswege. Frühwarnsysteme nutzen regelbasierte KI, um Start und Flugbahnen ballistischer Raketen zu erkennen.
Allerdings haben regelbasierte KIs einen Nachteil: Ihre Regeln erfordern ständige Updates, damit die KI sich auf Veränderungen einstellen kann.
Ohne direkte Programmierung aus Daten lernen
KIs, die auf Maschinenlernen (ML) und Deep-Learning-Lösungen basieren , brauchen das nicht. Sie können sich anpassen, indem sie ohne direkte Programmierung aus Daten lernen. Dieser Lernprozess funktioniert so: ML-Systeme wenden Algorithmen immer wieder auf große Datenmengen an, um statistische Muster zu identifizieren und sie mit erwarteten Ergebnissen zu verbinden.
Diese erlernten statistischen Muster oder Parameter bilden dann den Kern einer KI. Die KI kann diese Parameter dann auch auf vorher nicht bekannte Daten anwenden.
Hochkomplexe Muster erkennen
Deep Learning ist mittlerweile die gebräuchlichste Methode, KIs zu trainieren. Ohne sie wäre der schnelle Fortschritt der KI-Fähigkeiten in den vergangenen Jahren nicht möglich gewesen. Dabei verwendet man als neuronale Netzwerkarchitekturen bezeichnete Algorithmen, die große Datenmengen schneller als regelbasierte KIs verarbeiten und komplexere statistische Beziehungen erfassen können.
Dadurch können KIs hochkomplexe Muster erkennen, wie sie bei der Bildverarbeitung und -analyse oder beim Verarbeiten von Sprache auftreten. Sie können auch Daten aus verschiedenen Quellen zusammenführen und analysieren.
ChatGPT fürs Militär
Die sogenannten Foundation Models stellen die nächste Entwicklungsstufe von Deep-Learning-Lösungen dar. Foundation Models beruhen auf einer neuartigen Architektur neuronaler Netzwerke, die sie noch leistungsfähiger macht als ihre Vorgänger.
Außerdem sind sie skalierbar. Das heißt, dass die Genauigkeit, Effektivität und Komplexität ihrer Ergebnisse besser wird, je mehr Trainingsdaten und Rechenkapazitäten zur Verfügung stehen. Foundation Models werden mit großen Datenmengen in einem Prozess geschult, der sich Pre-Training nennt.
Ressourcenintensiv
Danach lässt sich die KI mit einem kleineren Datensatz für spezifische Aufgaben ausbilden. Allerdings brauchen diese KIs umfangreiche Ressourcen. Hardware gehört dazu, etwa GPUs, Softwareplattformen und Infrastruktur in Form von Rechenzentren. Die zum Training genutzten Datensätze müssen hohe Anforderungen erfüllen, weil von ihnen die Genauigkeit, Effektivität und Zuverlässigkeit der KI abhängen.
KIs wie ChatGPT sind Foundation Models, ebenso viele Typen generativer KIs, die originäre Inhalte wie Texte, Audio, Bilder oder Videos erzeugen. Diese KIs eignen sich auch für das Klassifizieren von Bildern, das Auffinden von Objekten und die Analyse von Videos.
Was KI nicht kann
Allerdings haben generative KIs auch ihre Probleme. Immer wieder liefern sie falsche Ergebnisse oder erfinden Dinge. Der Chief Technology Officer der CIA schlug deswegen vor, generative KI zu behandeln wie ''einen verrückten, betrunkenen Freund''(öffnet im neuen Fenster) .
Damit ist es aber nicht getan. Wenn Menschen den Ergebnissen von KIs nicht vertrauen, kann das auch dazu führen, dass sie korrekte Angaben als zweifelhaft einschätzen oder sogar ignorieren.
Außerdem können KIs gehackt werden. Angreifer könnten sie dazu bringen, fehlerhafte Ergebnisse zu liefern, indem sie Trainingsdaten manipulieren. Hacker könnten den Zugriff auf Trainingsdaten auch nutzen, um an die geheimen Informationen zu kommen, auf denen der Einsatz von KIs basiert. Stärkere Schutzvorkehrungen könnten wiederum die Fähigkeit einer KI beeinträchtigen, auf neuartige Bedrohungen zu reagieren.
Einzige Chance: Ein neuer Anlauf zur Rüstungskontrolle
Dass Militärs und Politiker hoffen, mit KI mehr Sicherheit und Kontrolle zu erreichen, ist verständlich. Vor allem ist es menschlich. Allerdings wirkt KI auch dabei als Verstärker. Zwar wird betont, dass immer Menschen die wesentlichen Entscheidungen träfen. Aber man ist nicht sicher vor Irrtümern, Überforderung, Voreingenommenheit oder vorschnellen Entscheidungen.
Außerdem sind es Menschen, die KIs entwickeln, programmieren und trainieren. Also könnten KIs und ihre Programmierungen auch Fehleinschätzungen, Vorurteile oder fachliche Irrtümer enthalten.
Experten wie Alvin Wang Graylin und Paul Triolo fordern daher eine Rückkehr zu bewährten Konzepten der Rüstungskontrolle. Graylin ist Manager und Investor mit 30 Jahren Erfahrung in KI, Cybersicherheit und Halbleitertechnologie sowie Vizepräsident des taiwanesischen Technologiekonzerns HTC. Triolo ist bei der Unternehmensberatung DGA-Albright Stonebridge Group verantwortlich für China und Technologiepolitik(öffnet im neuen Fenster) .
Die beiden fordern die Großmächte auf, KI nicht primär als militärisches Mittel zu sehen. Wichtig sei nicht nur ein Dialog zwischen den Atommächten, sondern auch gemeinsame Standards für die Entwicklung und Anwendung von künstlicher Intelligenz.
Außerdem sollten die Staaten mehr in das Aufspüren und Zurückdrängen des Missbrauchs von KI investieren und die internationale Kooperation in der Forschung stärker fördern. Internationale Vereinbarungen zum Datenaustausch und der Abbau von Handelsbeschränkungen könnten zu mehr Transparenz führen. So ließen sich politische Spannungen und Fehlinterpretationen eingrenzen.
Vor allem sollte KI aber zur Bewältigung globaler Probleme wie Krankheiten, Hunger, Armut und dem Klimawandel genutzt werden, betonen sie.



