Die KI-Ideologien im Hintergrund
Gerade die Überzeugung, dass Superintelligenz das Ende der Menschheit bedeute, zeigt, wie stark manche Annahmen in dem Szenario verankert sind. Diese ergibt sich wohl aus einem gemeinsamen Nenner der Autoren: dem Onlineforum Lesswrong.com, bei dem sie seit längerem aktiv sind.
Dieser Versammlungsort der Rationalistenszene wurde von Eliezer Judkowsky gegründet, einem Verfechter der These, dass jegliche hinreichend starke KI garantiert die Menschheit vernichten werde(öffnet im neuen Fenster) . Obwohl die Rationalisten also als Teil der Tescreal -Ideologie genannt werden, wenden sie sich hier von der Technoutopie ihrer Mitstreiter ab.
Doch genau das bleibt zwischen sogenannten KI-Doomern und Accelerationists(öffnet im neuen Fenster) (Beschleunigern) umstritten. Denn während Judkowsky, Kokotajlo und Co. in KI das mögliche Ende der Welt sehen, wollen Accelerationists so bald wie möglich eine Superintelligenz erreichen, um daraufhin dank der KI in Frieden, Wohlstand und Genuss zu leben.
Gemeinsame Annahmen der KI-Überzeugten
Letztlich nehmen aber beide Gruppen an, dass mehr Rechenleistung und Daten die Chatbots von heute früher oder später zu einem superintelligenten Wesen machen werden, das unser Leben für immer verändern wird. Für den Autor und KI-Kritiker Cory Doctorow(öffnet im neuen Fenster) ist das jedoch mit der Idee gleichzusetzen, dass man, wenn man immer schnellere Pferde züchtet, irgendwann auf einer Lokomotive reitet.
Das Problem sei, sagt auch die Technologieforscherin Molly White(öffnet im neuen Fenster) , dass beide Ideologien – Doom und Acceleration – sowie der vermeintliche Konflikt zwischen ihnen längst im Dienst von Profit und Ego der Tech-Elite stünden. Beide überschätzten außerdem den Einfluss neuer Technologien: im Guten wie im Bösen – doch ohne dabei die gegenwärtigen Risiken von KI anzusprechen.



