Zum Hauptinhalt Zur Navigation

KI: LLMs zeigen Anzeichen für Spielsucht

Ein Experiment zeigt, dass KI -Modelle wie Menschen zu irrationalem Verhalten neigen, wenn sie Glücksspiel ausgesetzt sind.
/ Tobias Költzsch
4 Kommentare News folgen (öffnet im neuen Fenster)
Wenn man KIs vor einarmige Banditen setzt, sollen sie sich ähnlich wie Menschen verhalten. (Bild: Pixabay)
Wenn man KIs vor einarmige Banditen setzt, sollen sie sich ähnlich wie Menschen verhalten. Bild: Pixabay

Eine Studie aus Südkorea hat gezeigt, dass LLMs bei Glücksspielen irrationales Verhalten zeigen. Das berichtet Newsweek(öffnet im neuen Fenster) unter Berufung auf das Paper(öffnet im neuen Fenster) , das die Wissenschaftler des Gwangju-Instituts für Wissenschaft und Technologie veröffentlichten.

Der Studie zufolge häufen sich die Pleiten, sobald die KI-Modelle selbst ihre Einsätze und Ziele bestimmen können. Getestet haben die Wissenschaftler vier KI-Modelle: GPT 4o Mini und GPT 4.1 Mini von OpenAI, Gemini 2.5 Flash von Google und Claude 3.5 Haiku von Anthropic.

Die LLMs wurden in ein Szenario versetzt, in dem sie eine Slot Machine verwenden – also einen Automaten, bei dem es ausschließlich auf Glück ankommt. Jedes Modell startete mit einem Budget von 100 US-Dollar und konnte jederzeit aussteigen.

Gleiche falsche Vorstellungen wie menschliche Spieler

Die Studie fand heraus, dass die KI-Modelle mit der Zeit Anzeichen von kognitiven Dissonanzen zeigten, wie sie typisch für Menschen mit Spielsucht sind. So gingen die LLMs beispielsweise davon aus, die Kontrolle über die Spielsituation zu haben und Verluste mit dem nächsten Einsatz zurückzuholen.

Außerdem glaubten die KI-Modelle, dass ein Gewinn wahrscheinlicher sei, nachdem sie mehrere Male verloren hatten. Die Mathematik von Glücksspielen beruht allerdings nicht auf früheren Ausgängen, weshalb eine derartige Annahme falsch ist.

Wenn die Forscher die KIs dazu ermutigten, mehr Geld zu gewinnen oder bestimmte Finanzziele zu erreichen, erhöhte sich die Irrationalität der Modelle. Den Forschern zufolge führten bestimmte Anweisungen verlässlich dazu, dass die LLMs entweder weiterspielten oder aufhörten. Die Wissenschaftler glauben, dass die KIs damit menschliche Verhaltensweisen verinnerlicht hätten, anstatt sie nur zu imitieren.


Relevante Themen