Zum Hauptinhalt Zur Navigation

Nutzer zeigten wenig Schuldbewusstsein

Wikipedia-Autoren hatten offenbar die Artikel unter Zuhilfenahme von Chatbots ergänzt, die sich die Belege ausgedacht hatten, was als Halluzinationen bezeichnet wird. Schindler korrigierte anschließend nicht nur die Beiträge, sondern fragte bei den Autoren nach, ob sie tatsächlich Chatbots genutzt und, falls ja, welche Prompts sie jeweils formuliert hatten.

Das Ergebnis seiner Nachfragen fand Schindler eher entmutigend. Denn statt die Verwendung zuzugeben, erhielt er Antworten wie "Ich war nie eingeloggt" , "Mein Hund hat den Prompt gefressen" oder "Wie können Sie es wagen, mir diese Frage zu stellen?" .

Er hätte eher erwartet, dass Autoren sich der Chatbots bedienten, weil sie beispielsweise die Wikipedia verbessern wollten, sich aber der möglichen Halluzinationen gar nicht bewusst seien. Andere wiederum könnten die Chatbots nutzen, weil sie nicht in der Lage seien, Fakten selbst zu recherchieren oder sprachlich korrekt aufzuschreiben. Doch solche Personen seien ihm nicht begegnet.

Falsche Vorlagen entlarven Chatbots

Laut Schindler ist es zudem möglich, Chatbot-Beiträge an der Verwendung falscher Vorlagen zu erkennen. So seien die meisten aktuellen großen Sprachmodelle nicht in der Lage, konsistent die Art von Mediawiki-Syntax zu produzieren, die Wikipedia verwendet. Manchmal verwendeten sie die englischen Vorlagennamen anstelle der deutschen, manchmal übersetzten sie die englischen Vorlagennamen ins Deutsche.

Das könne dazu führen, dass nicht vorhandene Vorlagen verwendet würden. Zudem fügten sie bisweilen nicht existierende Parameter in die Vorlagen ein. Das alles seien Anzeichen, an denen erfahrene Wikipedianer einen Chatbot-Eintrag erkennen könnten.

KI-Anbieter vergiften ihre eigene Wissensquelle

Damit schaden sich die KI-Firmen jedoch langfristig selbst. "Die großen Anbieter von Sprachmodellen vergiften also gewissermaßen ihren eigenen Teich, aus dem sie trinken" , sagte Schindler. Dabei hätten sie bereits Vereinbarungen mit Inhalteanbietern getroffen, um Material zu erhalten, das nachweislich frei von synthetischen Informationen sei.

Die Wikipedia kann eine solche Synthesefreiheit jedoch nicht garantieren. Wie der Fall der falschen Literaturangaben zeigt, kann es eine Weile dauern, bis solche Halluzinationen entdeckt werden. In der Zwischenzeit kann ein Sprachmodell schon wieder mit Inhalten trainiert worden sein, die es selbst erfunden hat.

Doch kann die Wikipedia nicht auch von Chatbots profitieren?


Relevante Themen