Zum Hauptinhalt Zur Navigation

Skeptische Superforecaster und besorgte Experten

In den letzten Monaten ging es, zum Beispiel, immer wieder um das vermeintliche existenzielle Risiko von KI, also die Frage, inwiefern die Entwicklung von KI die Menschheit bedroht. Auch wir haben darüber berichtet – so ausgeglichen wie möglich. Das gleiche beschäftigte auch die Forscher vom Forecasting Research Instituts.

Die Autorinnen um Phillip Tetlock, Professor an der Universität von Pennsylvania und Autor von Superforecasting: Die Kunst der Prognose – baten deswegen zwei Gruppen von Experten darum, miteinander über die Wahrscheinlichkeit zu reden, dass die Menschheit wegen KI vor dem Jahr 2100 einen "unumkehrbaren Zusammenbruch" erlebt.

Die eine Gruppe bestand aus elf besorgten KI-Experten. Die andere Gruppe aus neun Superforecastern und zwei KI-Experten, die skeptisch waren, ob KI ein existenzielles Risiko sei. Acht Wochen lang diskutierten sie die Wahrscheinlichkeit, dass bis 2100 die Menschheit untergeht. Am Ende waren sich die Besorgten zu 20 Prozent sicher, dass das stimmt, die Skeptiker nur zu 0,12 Prozent.

Warum sich Experten nicht einigen können

Aber ein anderes Ergebnis war noch spannender. Denn die Forscherinnen bemerkten, dass die beiden Gruppen völlig unterschiedlich argumentierten. Die Skeptiker gingen davon aus, dass sich die Welt eher langsam verändert – deswegen sei das Ende der Menschheit prinzipiell sehr unwahrscheinlich. Die KI-Besorgten vertraten die Annahme, dass eine höhere Intelligenz schon oft geringere Intelligenzen ausgelöscht habe, weshalb es wahrscheinlich sei, dass es wieder passiere.

Dieser Unterschied führte dazu, dass die beiden Gruppen aneinander vorbeiredeten: Im Verlauf der acht Wochen konnten sie jeweils die Meinung der anderen kaum verändern. Außerdem waren sie sich uneinig, welche Arten von Beweisen zuverlässig seien, welche Referenzklassen relevant und wie man überhaupt darüber nachdenken sollte, wie soziale und politische Systeme interagieren.

Das liege an unterschiedlichen Weltbildern der Gruppen, schrieben die Forscher. Die Skeptiker bräuchten außerordentliche Beweise, um zu glauben, dass KI plötzlich die menschliche Spezies auslöschen könne. Die besorgte Gruppe verlangte ihrerseits außerordentliche Beweise, um zu glauben, dass ein geringerer Intellekt im Schatten des größeren überleben könne.


Relevante Themen