Zum Hauptinhalt Zur Navigation Zur Suche

Golem Plus Artikel
Reflection Tuning bei KI:
Selbstkritik bis hin zur Halluzination

Sprachmodelle können eigene Fehler erkennen und daraus lernen. Wie das funktioniert und was hilft, wenn sie Fehler erfinden.
/ Fabian Deitelhoff
Kommentare undefined News folgen (öffnet im neuen Fenster)
Wenn die Maschine über sich selbst "nachdenkt", werden die Ergebnisse manchmal besser, manchmal aber auch schlechter. (Bild: geralt/Pixabay)
Wenn die Maschine über sich selbst "nachdenkt", werden die Ergebnisse manchmal besser, manchmal aber auch schlechter. Bild: geralt/Pixabay

Große Sprachmodelle (Large Language Models, LLMs) haben sich in den letzten Jahren enorm entwickelt. Doch mit steigender Komplexität erhöhen sich auch die Anforderungen an Genauigkeit, Transparenz und Zuverlässigkeit. Normale Feinabstimmung wie Supervised Fine-Tuning oder Reinforcement Learning from Human Feedback (RLHF) verbessert die Antworten, stößt aber bei komplexem Schlussfolgern oder sicherheitsrelevanten Themen an Grenzen.

Eine innovative Erweiterung ist Reflection Tuning: Ein LLM führt selbstkritische Schleifen durch, um Fehler zu erkennen, daraus zu lernen und die eigenen Gewichte gezielt zu aktualisieren. Wir erklären, wie es funktioniert und wie man es implementiert.

Golem Plus Artikel