Zum Hauptinhalt Zur Navigation

KI-generierte Antwort: Glas-Essen bietet laut Google-Suche gesundheitliche Vorteile

Die Antworten, die Google bei der Suche nach gesundheitlichen Vorteilen des Verzehrs von Glas lieferte, stammten offenkundig von ChatGPT .
/ Marc Stöckel
40 Kommentare News folgen (öffnet im neuen Fenster)
Auch die Google-Suche liefert manchmal fragwürdige Informationen. (Bild: TOBIAS SCHWARZ/AFP via Getty Images)
Auch die Google-Suche liefert manchmal fragwürdige Informationen. Bild: TOBIAS SCHWARZ/AFP via Getty Images

In Google-Snippets zu zwei verschiedenen Suchanfragen wurde wohl Anfang dieser Woche behauptet, das Essen von Glas biete einige gesundheitliche Vorteile. Quelle dieser von Full Fact entdeckten(öffnet im neuen Fenster) und überaus fragwürdigen Informationen war angeblich eine Webseite namens Emergent Mind(öffnet im neuen Fenster) , auf der regelmäßig KI-generierte Inhalte geteilt werden.

Full Fact suchte bei Google nach eigenen Angaben explizit nach gesundheitlichen Vorteilen, die das Essen von Glas mit sich bringt. Eine der Antworten, die daraufhin in einem Google-Snippet erschien, wies darauf hin, Glas könne "bei der Gewichtsabnahme helfen" , da es nicht nahrhaft sei und keine Kalorien liefere. Folglich könne man "die knusprige Textur von Glas genießen" , ohne sich Sorgen um eine Gewichtszunahme machen zu müssen.

Bei dem anderen Suchergebnis hieß es, Glas sei "eine großartige Quelle für Silizium" . Dabei handle es sich um ein essenzielles Spurenelement, das eine wichtige Rolle für die Gesundheit der Knochen, des Bindegewebes sowie der Haut spiele und die Elastizität der Arterien verbessere, um etwa Herzkrankheiten vorzubeugen.

Google prüft Snippets vorwiegend automatisiert

Die beiden fragwürdigen Snippets wurden wohl inzwischen von Google entfernt. In seinem Support-Bereich(öffnet im neuen Fenster) erklärt der Konzern, "Snippets werden angezeigt, wenn über unsere Systeme festgestellt wird, dass Nutzer durch dieses Format leichter finden, was sie suchen" . Die Inhalte stammen dabei aus den Ergebnissen der Websuche.

Laut Google bestimmten die automatisierten Systeme des Unternehmens, ob eine Seite ein gutes Snippet für eine bestimmte Suchanfrage darstellt. Jedoch betont der Konzern auch, dass Snippets, die nicht den Richtlinien für hervorgehobene Snippets entsprechen, entfernt werden. Dazu zählen auch medizinische Inhalte, die "im Widerspruch zum allgemein gültigen oder von Experten vertretenen Konsens stehen" .

Üblicherweise sei es Aufgabe der automatisierten Systeme, gegen die Richtlinien verstoßende Snippets zu erkennen und zu unterdrücken. Da die Suche aber sehr umfangreich sei, verlasse sich Google auch auf die Meldungen der Nutzer, woraufhin das Unternehmen die gemeldeten Snippets manuell prüfe und gegebenenfalls entferne.

Die Antwort stammt von ChatGPT

Matt Mazur, der Gründer von Emergent Mind, erklärte gegenüber Full Fact, die fragwürdigen Passagen würden von einer frühen Version von ChatGPT stammen. Der KI-Chatbot sei damals sogar explizit angewiesen worden, Falschinformationen zu generieren. Die vollständige Antwort, die ChatGPT damals ausgab, ist in einem Screenshot zu sehen, der vor fast einem Jahr auf Reddit geteilt(öffnet im neuen Fenster) wurde.

Dass KI-Tools falsche Informationen generieren, ist keine Seltenheit - selbst dann, wenn der Nutzer korrekte Informationen erwartet. Dieses Verhalten wird auch als Halluzination bezeichnet. Erst im August warnten KI-Experten davor, dass sich KI-Halluzinationen möglicherweise nie vollständig beseitigen lassen. Das aktuelle Beispiel zeigt einmal mehr, wie moderne KI-Trends das Vertrauen der Nutzer in die Echtheit von Informationen im Netz auf die Probe stellen.


Relevante Themen