Chatbots: Warum KI Fakten erfindet
Große Sprachmodelle halluzinieren mit wachsender Präzision: Sie klingen überzeugend, liegen aber oft daneben. Was dahintersteckt und welche Lösungen es gibt.

Sie liefern Antworten in Sekunden, schreiben ganze Romane und analysieren komplexe Daten. Doch wenn man genau hinsieht, erfinden sie oft auch vermeintliche Fakten, zitieren nichtexistierende Quellen und tischen ihren Benutzern Falschinformationen auf. Das Phänomen dahinter nennt man Halluzination – und ausgerechnet die leistungsfähigsten Sprachmodelle sind dafür am anfälligsten.
Was aber steckt hinter dieser rätselhaften Schwäche? Und wie lässt sie sich technisch bekämpfen? Golem wagt den Blick in das Paradoxon der künstlichen Intelligenz.