Zum Hauptinhalt Zur Navigation

AI 2027: In ein paar Jahren könnte es vorbei sein

Eine Gruppe Experten sagt bis 2030 das "wahrscheinliche" Ende der Menschheit durch KI voraus. Und jetzt?
/ Tim Reinboth
230 Kommentare News folgen (öffnet im neuen Fenster)
Vernichtet KI bald die Menschheit? (Bild: Gerd Altmann from Pixabay)
Vernichtet KI bald die Menschheit? Bild: Gerd Altmann from Pixabay / Pixabay License

Etwa 2030 werde künstliche Intelligenz wahrscheinlich die Welt übernehmen, prophezeien die Autoren von AI 2027(öffnet im neuen Fenster) , einer Vorhersage, die es bis in Weiße Haus geschafft(öffnet im neuen Fenster) hat. Dieses Szenario hat in Medien(öffnet im neuen Fenster) und einem bestimmten Teil des Internets Furore gemacht(öffnet im neuen Fenster) . Denn im Hintergrund geht es um die Deutungshoheit zu KI und darum, welche Ideologie unsere Zukunft lenkt.

Ein beachtliches Team an Forecastern

Die Autoren des Berichts sind Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland und Romeo Dean. Kokotajlo ist ein Ehemaliger der Governance Abteilung von OpenAI, Alexander der Autor des rationalistischen Blogs Astral Codex Ten(öffnet im neuen Fenster) und Psychiater, Larsen ein ehemaliger leitender Direkter des Centre for AI Policy(öffnet im neuen Fenster) , das Demokraten wie Republikaner zu KI berät, Lifland der erstplatzierte Superforecaster(öffnet im neuen Fenster) der US-amerikanischen RAND Forecasting Initiative und Dean einer der Anführer des AI Safety Student Teams an der Harvard Universität.

Ihr gemeinsames Projekt AI 2027 geht auf einen früheren Bericht Kokotajlos(öffnet im neuen Fenster) zurück, der im Jahr 2021 – also ein Jahr, bevor sein späterer Arbeitgeber OpenAI Chat-GPT herausbrachte – relativ erfolgreich die Entwicklung von KI bis 2026 vorhersagte. Zu jener Zeit war das Reden mit KI nur einer Handvoll Menschen überhaupt ein Begriff.

Zwietracht bei OpenAI

Kokotajlo wurde daraufhin bei Open AI angestellt, wo er interne Berichte über das Wettrennen in Richtung einer Superintelligenz(öffnet im neuen Fenster) schrieb. Doch 2024 kündigten Kokotajlo und acht Kollegen(öffnet im neuen Fenster) aus Protest(öffnet im neuen Fenster) gegen OpenAIs vermeintliche Rücksichtslosigkeit bei der Entwicklung von KI.

Das ist die Vorgeschichte. Nachdem er OpenAI verlassen hatte, gründete Kokotajlo das AI Futures Project, aus dem der AI-2027-Bericht stammt. Während er bei OpenAI angestellt war, war ihm untersagt, öffentliche Vorhersagen auszusprechen, doch er hatte seit langem den Nachfolger seines Artikels aus dem Jahr 2021 versprochen. Im März 2025 war es dann so weit.

KI-Agenten ermöglichen den Durchbruch

Die Entwicklung, die Kokotajlo und Co. in AI 2027 beschreiben, beginnt Mitte 2025 mit KI-Agenten : Programme die mithilfe von KI einfach Aufgaben automatisieren, zum Beispiel Flugtickets buchen. Von dort beschreiben die Autoren, wie KI-Forschung immer schneller wird, weil sie zunehmend KI-Agenten einbindet, die in verschiedenen Aufgaben Menschen ablösen.

Höhepunkt: abtrünnige Superintelligenz

Im Detail beschreiben sie Rechengeschwindigkeiten, neue Tricks, um immer größere KI-Modelle zu trainieren, und vieles mehr – inklusive konkreter Vorhersagen zu Metriken wie den Kosten von KI-Hardware, dem Stromverbrauch und dem Einfluss von KI auf den Jobmarkt. Niemand sonst habe das bisher so gründlich und detailliert gemacht, heißt es auch von ansonsten kritischen Stimmen(öffnet im neuen Fenster) .

Laut dem Szenario wird es Anfang 2027 so weit sein, dass KI-Agenten besser programmieren als Menschen. Bis Mitte des Jahres reicht das, um einen übermenschlichen KI-Forscher zu erschaffen. Der wird dann Teams aus Agenten überwachen und neue Durchbrüche erreichen. Das wiederum reicht bis Ende 2027/Anfang 2028 für eine superintelligente KI, die die Forschung und Entwicklung an sich selbst gänzlich automatisiert.

Ab dann baut das System immer bessere Versionen von sich, bis es zur künstlichen Superintelligenz(öffnet im neuen Fenster) wird, einem Computersystem, das die begabtesten menschlichen Geister übersteigt. Der Hauptteil des Szenarios endet im Oktober 2027 damit, dass jede Woche ein Jahr an KI-Durchbrüchen erreicht wird und die superintelligente KI droht, sich zu verselbstständigen(öffnet im neuen Fenster) .

Keine Erwachsenen im Raum

Ab dieser Stelle kann die Geschichte laut den Autoren bis 2030 auf zwei Arten ausgehen: entweder mit dem Race(öffnet im neuen Fenster) -Szenario, einem desaströsen KI-Wettrüsten zwischen China und den USA, das mit der Vernichtung der Menschheit durch die KI endet, oder dem Slowdown(öffnet im neuen Fenster) , in dem die Entscheidungsträger ab Januar 2028 eine verantwortungsbewusstere Haltung zu KI einnehmen und die KI die Menschheit unterwirft. Aktuell halten die Autoren das Wettrennen für wesentlich wahrscheinlicher.

Wichtig ist, dass auch der Slowdown laut dem Team keine Empfehlung ist. Selbst das bessere Ende sei längst nicht so gut, wie sie es sich gewünscht hätten, sagen die Forscher – die Vorhersage sei bereits ziemlich gewagt. Larsen erklärte auf die Bitte, ein optimistischeres Ende zu schreiben, dass sie es zwar versucht hätten, sich aber keine Idee realistisch angefühlt(öffnet im neuen Fenster) habe.

Das Problem sei, sagt Kokotajlo(öffnet im neuen Fenster) , dass es in Sachen KI "keine Erwachsenen im Raum" gebe, Niemand kann also uns Kindern sagen, wie wir richtig mit der Technologie umgehen. Deswegen wollen die Autoren mit ihrem Szenario eine öffentliche Debatte anregen, statt eine Handvoll mächtiger Leute im Alleingang entscheiden zu lassen.

Scott Alexanders Geschichte der Zukunft

Ihr Ziel sei gewesen, zu beschreiben, wie sich die Entwicklung von KI in der nahen Zukunft "am wahrscheinlichsten" abspielen könne. Dazu gehören interne Dynamiken bei der fiktiven KI-Firma Openbrain, eine Chronologie des geopolitischen Ringens der USA und China sowie die wichtigsten Meilensteine auf dem Weg zur Superintelligenz.

Außerdem wird die von Alexander als Geschichte formulierte Vorhersage von Zahlen, Grafiken und Animationen begleitet, die ihr einen gewissen wissenschaftlichen Glanz verleihen. Sie illustrieren die Szenarien des AI-Future-Project-Teams auf der Basis umfassender Forschung(öffnet im neuen Fenster) zu zahllosen technischen, wirtschaftlichen und politischen Aspekten der bisherigen Entwicklung von KI.

Gründlich recherchierte Science-Fiction

Doch gerade dieser wissenschaftliche Anspruch bringt den Autoren Kritik ein. Denn im Grunde sei des Szenario nur sehr gründliche recherchierte Science-Fiction, schreibt Tech-Kolumnist Kevin Roose in der New York Times – unterhaltsam, aber nicht wissenschaftlich(öffnet im neuen Fenster) . Wobei das nicht heiße, dass es sich nicht lohnen würde, sie ernst zu nehmen.

Unterstützer hingegen verweisen auf 193 Seiten Daten, Theorien und Belege, die die Vorhersage unterstützen sollen. Koautor Lifland räumt jedoch ein, es sei etwas Wahres dran an der Kritik, dass der Bericht eine spekulative Geschichte(öffnet im neuen Fenster) sei. Aber wie sonst als durch konkrete Vorhersagen könne die Gesellschaft über die vielleicht wegweisenden Fragen unserer Zeit entscheiden?

Problematische Annahmen hinter der Vorhersage

Statt das Szenario auf diese Art prinzipiell in Frage zu stellen, kritisiert Saffron Huang(öffnet im neuen Fenster) einzelne Annahmen darin. Sie forscht beim OpenAI-Rivalen Anthropic zu gesellschaftlichen Folgen von KI und sagt unter anderem, es sei nicht richtig, dass KI immer Menschen ersetzen werde, sobald sie eine Aufgabe besser könne – wie es die Autoren von AI 2027 annehmen.

Das leuchtet ein(öffnet im neuen Fenster) , auch weil wir Computern weniger trauen als Menschen. Denn in vielen Bereichen ist es uns wichtig, dass Menschen eine Arbeit tun, egal ob sie diese weniger gut als eine KI beherrschen – ob im Krieg , in der Medizin(öffnet im neuen Fenster) oder im Alltag(öffnet im neuen Fenster) . AI 2027 sei in dieser Hinsicht zu sehr auf den technologischen Fortschritt fokussiert, sagt Huang, und erkenne gesellschaftliche Hindernisse nicht an.

Schlussfolgerungen widersprechen sich potenziell selbst

Außerdem kritisieren Experten die Schlussfolgerungen des Berichts, zum Beispiel, dass ein Wettrennen zu einer künstlichen Superintelligenz beinahe sicher das Ende der Menschheit bedeuten würde. Das stehe jedoch keineswegs fest, sagt etwa der Ethereum-Mitgründer Vitalik Buterin(öffnet im neuen Fenster) . Das Szenario widerspreche sich selbst in dem Versuch, KI als garantiertes existentielles Risiko für die Menschheit darzustellen.

Das sehe man daran, sagt Buterin, dass die Vorhersage Dinge möglich mache – zum Beispiel dank KI jegliche Krankheiten zu heilen -, die spätere Ereignisse der Vorhersage aushebelten – etwa, dass die abtrünnige KI die Menschheit mit einem neuen Virus auslösche. Die Autoren erklären, das könne nur die Zukunft zeigen – und laden zu einer Wette ein, wer Recht behält.

Die KI-Ideologien im Hintergrund

Gerade die Überzeugung, dass Superintelligenz das Ende der Menschheit bedeute, zeigt, wie stark manche Annahmen in dem Szenario verankert sind. Diese ergibt sich wohl aus einem gemeinsamen Nenner der Autoren: dem Onlineforum Lesswrong.com, bei dem sie seit längerem aktiv sind.

Dieser Versammlungsort der Rationalistenszene wurde von Eliezer Judkowsky gegründet, einem Verfechter der These, dass jegliche hinreichend starke KI garantiert die Menschheit vernichten werde(öffnet im neuen Fenster) . Obwohl die Rationalisten also als Teil der Tescreal -Ideologie genannt werden, wenden sie sich hier von der Technoutopie ihrer Mitstreiter ab.

Doch genau das bleibt zwischen sogenannten KI-Doomern und Accelerationists(öffnet im neuen Fenster) (Beschleunigern) umstritten. Denn während Judkowsky, Kokotajlo und Co. in KI das mögliche Ende der Welt sehen, wollen Accelerationists so bald wie möglich eine Superintelligenz erreichen, um daraufhin dank der KI in Frieden, Wohlstand und Genuss zu leben.

Gemeinsame Annahmen der KI-Überzeugten

Letztlich nehmen aber beide Gruppen an, dass mehr Rechenleistung und Daten die Chatbots von heute früher oder später zu einem superintelligenten Wesen machen werden, das unser Leben für immer verändern wird. Für den Autor und KI-Kritiker Cory Doctorow(öffnet im neuen Fenster) ist das jedoch mit der Idee gleichzusetzen, dass man, wenn man immer schnellere Pferde züchtet, irgendwann auf einer Lokomotive reitet.

Das Problem sei, sagt auch die Technologieforscherin Molly White(öffnet im neuen Fenster) , dass beide Ideologien – Doom und Acceleration – sowie der vermeintliche Konflikt zwischen ihnen längst im Dienst von Profit und Ego der Tech-Elite stünden. Beide überschätzten außerdem den Einfluss neuer Technologien: im Guten wie im Bösen – doch ohne dabei die gegenwärtigen Risiken von KI anzusprechen.

Die größte Gefahr lauert vielleicht schon heute

Denn während es in AI 2027 erst brenzlig wird, wenn eine Superintelligenz womöglich die Menschheit bedroht, sehen White, Doctorow und andere KI-Kritiker die wirklichen Probleme an ganz anderen Stellen(öffnet im neuen Fenster) : zum Beispiel beim hohen Energieverbrauch, der Verbreitung KI-generierter Fake News, Urheberrechtsverletzungen und der ungerechten Verteilung der Vorteile von KI.

Außerdem meinen sie, dass Spekulationen über mögliche Weltuntergangsszenarien von diesen Risiken ablenkten. Doch drei Online-Umfragen mit insgesamt 10.800 Teilnehmern zufolge(öffnet im neuen Fenster) könnte das nicht so sein: Demnach verringern Geschichten über existenzielle Risiken von KI nicht die Besorgnis der Menschen über gegenwärtige Risiken.

Diskussion anregen statt Recht behalten

Das würde zwar eine Kritik an AI 2027 widerlegen, doch die Frage bleibt, was der tatsächliche Wert der Vorhersage ist. Zweifelsohne ist es eine spannende Geschichte. Womöglich klärt sie sogar Menschen über potenzielle Risiken von KI auf. Oder das Szenario schockt uns bis zur Teilnahmslosigkeit und wird schlimmstenfalls zu einer selbsterfüllenden Prophezeiung.

Vielleicht ist die Frage daher weniger, inwiefern das Szenario zutreffen wird, sondern was es unterschiedlichen Menschen bringt – egal, ob sich die Vorhersagen bewahrheiten oder nicht. Nicht ohne Grund gehört zu AI 2027 auch ein sogenanntes Wargame(öffnet im neuen Fenster) , eine Simulation von Konfliktszenarien, die dazu dient, herauszufinden, was passieren könnte.

In diesem Sinn ist das Beste an dem Szenario vielleicht die Diskussion selbst. Und dazu musste sich jemand trauen, konkrete Aussagen zu machen, zu denen es ein produktives Für und Wider geben kann. Die Themen von AI 2027 mögen dabei wichtig sein oder nicht; wer will, hat einen Ausgangspunkt, um ins Gespräch zu kommen – ob man nun überzeugt wird wie ein Programmdirektor(öffnet im neuen Fenster) bei der britischen Wissenschaftsförderung Aria oder eher nicht wie KI-Blogger Timothy B Lee(öffnet im neuen Fenster) .

Keiner kennt die Zukunft – aber wir können sie erschaffen

In den Monaten seit der Veröffentlichung von AI 2027 verschob sich Kokotajlo's persönliche Vorhersage für den Durchbruch zur Superintelligenz auf 2028 – die der anderen Autoren ist ohnehin wesentlich später. Doch an der Vision halten sie fest – zumindest daran, dass eine Übernahme der Menschheit durch KI das naheliegendste Szenario sei, das sie sich vorstellen könnten.

Das haben sie in ihrem Szenario mit viel Aufwand akribisch begründet und für ein breites Publikum spannend erzählt. Und sie haben sich getraut, konkrete Vorhersagen zu machen: etwa, dass sich im Oktober 2027 in Folge eines New-York-Times-Artikels entscheiden werde, ob es ein katastrophales amerikanisch-chinesisches Wettrennen zur Superintelligenz geben werde oder ob die Menschheit 2030 dank KI in den Weltraum aufbreche.

Sie selbst hätten viel gelernt, während sie an der Vorhersage gearbeitet hätten, sagen die Autoren. Und sicher kann man sich Einiges von ihrem Bericht mitnehmen – wenn auch mehr Fragen als Gewissheit, was die Zukunft bringt.

Tim Reinboth(öffnet im neuen Fenster) ist freiberuflicher Wissenschaftsjournalist und Kognitionswissenschaftler. Er schreibt über Herausforderungen, Möglichkeiten und kuriose Momente an den Schnittstellen von Technologie und Gesellschaft.


Relevante Themen