Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Chatbots:
Warum KI Fakten erfindet

Große Sprachmodelle halluzinieren mit wachsender Präzision: Sie klingen überzeugend, liegen aber oft daneben. Was dahintersteckt und welche Lösungen es gibt.
/ Nils Matthiesen
2 Kommentare News folgen (öffnet im neuen Fenster)
LLMs blicken bei ihren Ausgaben quasi in die Glaskugel - und nicht selten geht dabei etwas schief. (Bild: Alexas_Fotos/Pixabay)
LLMs blicken bei ihren Ausgaben quasi in die Glaskugel - und nicht selten geht dabei etwas schief. Bild: Alexas_Fotos/Pixabay

Sie liefern Antworten in Sekunden, schreiben ganze Romane und analysieren komplexe Daten. Doch wenn man genau hinsieht, erfinden sie oft auch vermeintliche Fakten, zitieren nichtexistierende Quellen und tischen ihren Benutzern Falschinformationen auf. Das Phänomen dahinter nennt man Halluzination – und ausgerechnet die leistungsfähigsten Sprachmodelle sind dafür am anfälligsten.

Was aber steckt hinter dieser rätselhaften Schwäche? Und wie lässt sie sich technisch bekämpfen? Golem wagt den Blick in das Paradoxon der künstlichen Intelligenz.

Golem Plus Artikel