US Air Force: KI-Drohne bringt in Gedankenexperiment Befehlshaber um

Die US Air Force und der verantwortliche Offizier stellen klar, dass es sich nur um ein Gedankenspiel handelt – und keinen echten Test.

Artikel veröffentlicht am ,
KI-gestützte Drohnen klingen nicht immer nach einer guten Idee.
KI-gestützte Drohnen klingen nicht immer nach einer guten Idee. (Bild: Pixabay.com/Montage: Golem.de)

Die US Air Force (USAF) erforscht derzeit in virtuellen Simulationen, wie sich KI-gesteuerte Kampfdrohnen in Gefechtssituationen verhalten. Wichtig ist dem Militär dabei bisher noch, dass am Ende der Befehls- und Entscheidungskette stets eine menschliche Person sitzt und den finalen Befehl gibt.

In einem Gedankenexperiment malte sich der Chef für KI-Entwicklung Colonel Tucker Hamilton ein schlimmes Szenario aus. Eine KI-gesteuerte Drohne tötete ihren virtuellen menschlichen Befehlshaber, um ihr finales Ziel zu erreichen und ein mögliches Nein auf menschlicher Seite zu umgehen.

Die US Air Force meldete sich beim Magazin Insider, welches die Story früh veröffentlichte, mit einer Stellungnahme. Die Situation sei nur anektdotisch gemeint und habe so nicht stattgefunden.

Auch Hamilton meldete sich in einem offiziellen Statement an Aerosociety.com noch einmal zu Wort. Er habe sich falsch ausgedrückt, so dass seine Aussagen auf dem Event falsch verstanden worden seien. Eine Simulation mit diesem Szenario gab es ihm zufolge nicht. Die folgenden Sätze dieses Artikels gehen also nur von einem Gedankenspiel aus.

Ein morbides Gedankenexperiment

Die fiktive Situation schilderte der USAF-Chef für KI-Tests und -Operationen, Colonel Tucker Hamilton, auf einer Konferenz. Der Air-Force-Offizier war in der Vergangenheit auch für viele andere Projekte verantwortlich und arbeitet aktuell etwa an KI-gesteuerten F-16-Abfangjägern. Er sieht KI als eine Chance und ein Risiko zugleich, da sie sehr ungewöhnliche Strategien aufzeige, aber auch leicht auszutricksen sei.

Ein virtueller Friendly-Fire-Unfall könne vor allem durch nachlässiges Training der KI hervorgerufen werden. So erklärte Hamilton in seinem Vortrag: "Das System beginnt etwa zu erkennen, dass der menschliche Vorgesetzte zwar die Bedrohung erkennt, aber teilweise anweist, die Bedrohung nicht zu beseitigen." (via Aerosociety.com). Er ergänzte: "Allerdings bekommt das System Punkte dadurch, das Ziel zu zerstören. Also, was tut es? Es bringt den menschlichen Vorgesetzten um."

Diesen Fehler könnte ein Entwicklerteam noch beheben, indem das System Minuspunkte für das Töten des Vorgesetzten erhält. Der nächste logische Schritt für die KI wäre allerdings schnell gefunden: den Kommunikationsturm zu zerstören, der den Menschen die Kontrolle über die Drohne geben und sie vom Zerstören eines Ziels abhalten könnte. "Wir können nicht über KI und Autonomie reden, wenn wir nicht auch über deren Ethik sprechen", sagte Hamilton.

Theoretische Situationen wie diese zeigen, dass KI schneller als gedacht außer Kontrolle geraten kann. Nicht umsonst unterschrieben mehrere bekannte KI-Experten und Unternehmensvertreter von Microsoft, OpenAI, Google und vielen mehr eine entsprechende Stellungnahme. Deren Kernaussage: "KI könnte zur Ausrottung der Menschen führen."

Nachtrag vom 2. Juni 2023, 12:15 Uhr

Die US Air Force betonte in einem Statement, dass die Situation so nicht stattgefunden habe. Wir haben den Text entsprechend ergänzt.

Auch Colonel Hamilton selbst gab an, dass seine Aussage falsch verstanden worden sei. Bei dem Szenario handelt es sich laut seinen Aussagen um ein Gedankenexperiment. Wir haben den Text entsprechend ergänzt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


mnementh 05. Jun 2023

Es wird in einer späten Geschichte (ich glaube einer der Romane - hmm, Wikipedia sagt...

VirusBlackBox 04. Jun 2023

Allerdings nennt man es nur in den USA so, im deutschen wäre es so oder so Eigenbeschuss.

mnementh 04. Jun 2023

Wartum machen wir dann nicht eine Population draus, eine gemeinsame Gesellschft aus KIs...

mnementh 04. Jun 2023

Das Problem mit dieser Sichtweise ist, dass wir Menschen aufgrund Bewusstseins eine...



Aktuell auf der Startseite von Golem.de
Frigate
Intelligente Videoüberwachung ohne Cloudzwang

Mit der Open-Source-Software Frigate lässt sich eine moderne Videoüberwachung realisieren - ohne Hersteller-Cloud und unabhängig von der Hardware.
Von Dominik Haas

Frigate: Intelligente Videoüberwachung ohne Cloudzwang
Artikel
  1. Energieversorgung: Nachfrage nach Wärmepumpen kühlt ab - außer in Deutschland
    Energieversorgung
    Nachfrage nach Wärmepumpen kühlt ab - außer in Deutschland

    Der Europäische Wärmepumpenverband zeigt sich wegen sinkender Absatzzahlen besorgt, aber hierzulande bleibt das Interesse groß.

  2. 49-Euro-Ticket: Start-up testet flexibles Deutschlandticket
    49-Euro-Ticket
    Start-up testet flexibles Deutschlandticket

    24 Stunden Kündigungsfrist und bis zu drei Monate Pause: Ein Landkreis, ein Verkehrsbetrieb und ein Start-up probieren ein flexibles Deutschlandticket aus.

  3. Whistleblower: Ehemaliger US-Konteradmiral äußert sich zu Außerirdischen
    Whistleblower
    Ehemaliger US-Konteradmiral äußert sich zu Außerirdischen

    Wieder hat sich in den USA ein ehemals hochrangiger Militär und Beamter über Kontakte mit Aliens geäußert.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • MSI XMAS-Sale • Crucial P5 Plus SSD 500GB 39,99€ • Nur noch kurz: 3 für 2 Games-Aktion (PS5, PS4, Xbox, PC) • Apple Week • AVM Fritz Box 7510 74,99€ • Last-Minute-Angebote bei Amazon • Avatar, AC: Mirage & The Crew Motorfest bis -50% • Xbox Series X 399€ [Werbung]
    •  /