Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Halluzination und Weltherrschaftswünsche:
Das Anreizsystem der KI

Wer verstehen will, warum selbst die besten KI -Systeme halluzinieren und Politiker Tech-Milliardären folgen, muss den Blick auf die Anreize richten.
/ Markus Feilner
2 Kommentare News folgen (öffnet im neuen Fenster)
Für manche reicht das als Anreiz, für andere muss es die Weltherrschaft sein. (Bild: regencygirl123/Pixabay)
Für manche reicht das als Anreiz, für andere muss es die Weltherrschaft sein. Bild: regencygirl123/Pixabay

Die Enttäuschung über ChatGPT 5.0 war groß, von angekündigten "bahnbrechenden Neuerungen" blieben am Ende nach Meinung vieler enttäuschter Anwender doch nur inkrementelle Verbesserungen . "Ein Durchbruch" , wie ihn OpenAI-CEO Sam Altman versprochen hatte, "war nirgendwo zu sehen," schrieb der niederländische Ökonom Servaas Storm in einer Analyse auf der Webseite des Institute for New Economic Thinking(öffnet im neuen Fenster) .

"Beunruhigenderweise zeigen interne Tests von OpenAI, dass GPT-5 bei bestimmten Faktenaufgaben in etwa einer von zehn Antworten 'halluziniert', wenn es mit dem Internet verbunden ist. Ohne Internetzugang liegt GPT-5 jedoch in fast jeder zweiten Antwort falsch." Noch beunruhigender sei, "dass derlei 'Halluzinationen' auch Vorurteile widerspiegeln können, die in Datensätzen verborgen sind. Beispielsweise könnte ein LLM Kriminalitätsstatistiken herbeifantasieren, die mit rassistischen oder politischen Vorurteilen übereinstimmen, einfach, weil es solches aus voreingenommenen Daten gelernt hat."

Golem Plus Artikel