Halluzination und Weltherrschaftswünsche: Das Anreizsystem der KI

Die Enttäuschung über ChatGPT 5.0 war groß, von angekündigten "bahnbrechenden Neuerungen" blieben am Ende nach Meinung vieler enttäuschter Anwender doch nur inkrementelle Verbesserungen . "Ein Durchbruch" , wie ihn OpenAI-CEO Sam Altman versprochen hatte, "war nirgendwo zu sehen," schrieb der niederländische Ökonom Servaas Storm in einer Analyse auf der Webseite des Institute for New Economic Thinking(öffnet im neuen Fenster) .
"Beunruhigenderweise zeigen interne Tests von OpenAI, dass GPT-5 bei bestimmten Faktenaufgaben in etwa einer von zehn Antworten 'halluziniert', wenn es mit dem Internet verbunden ist. Ohne Internetzugang liegt GPT-5 jedoch in fast jeder zweiten Antwort falsch." Noch beunruhigender sei, "dass derlei 'Halluzinationen' auch Vorurteile widerspiegeln können, die in Datensätzen verborgen sind. Beispielsweise könnte ein LLM Kriminalitätsstatistiken herbeifantasieren, die mit rassistischen oder politischen Vorurteilen übereinstimmen, einfach, weil es solches aus voreingenommenen Daten gelernt hat."