Chatbots contra Wahrhaftigkeit: KI-Halluzinationen können nicht komplett beseitigt werden

Techexperten bezweifeln, dass die Halluzinationen genannten Unwahrheiten von Chatbots wie ChatGPT oder Claude jemals verschwinden werden. "Kein Modell ist heute frei von Halluzinationen" , sagte Daniela Amodei, Mitbegründerin und Präsidentin von Anthropic, dem Hersteller des Chatbots Claude 2, dem US-Magazin Fortune(öffnet im neuen Fenster) . "Sie sagen das nächste Wort voraus, so dass Ungenauigkeiten in gewissem Maße vorkommen."
Unwahrheiten durch Chatbos entstehen schnell, wenn die Systeme zum Recherchieren und Schreiben eingesetzt werden. Problematisch ist dies insbesondere bei Aufgaben, bei denen möglicherweise viel auf dem Spiel steht, etwa im Bereich Recht oder in der Medizin.
Anthropic, OpenAI und andere große KI-Entwickler sagten Fortune, sie arbeiteten daran, ihre großen Sprachmodelle wahrheitsgetreuer zu machen. Experten bezweifeln jedoch zunehmend, dass das Problem angesichts der Grenzen der Technologie vollständig gelöst werden könne.
"Das ist nicht zu beheben" , sagte die Linguistin Emily Bender von der University of Washington dem Bericht zufolge. "Es liegt an der Diskrepanz zwischen der Technologie und den erwünschten Einsatzzwecken."
Für viele angedachte Anwendungen von ChatGPT & Co. wie Wissensrecherche, Analysen oder Assistenz bei Fachaufgaben sind Fehlinformationen allerdings hochproblematisch. Die KI-Firmen arbeiten daher intensiv an Ansätzen wie Quellenverifikation, Faktenprüfung und ethischer Ausrichtung der Modelle, um Halluzinationen einzudämmen.
Bei einigen Anwendungen, etwa Marketingpitches, seien erfundene Informationen sogar hilfreich, sagte Shane Orlick von der KI-Firma Jasper der Nachrichtenagentur Associated Press(öffnet im neuen Fenster) . Er räumte aber ein, dass kritische Anwendungen wie Suchmaschinen Lösungen bräuchten.
Weitere Informationen zum Thema künstliche Intelligenz gibt es hier in unserem Karriere-Ratgeber.



