Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
RAG'n Roll:
KI-Chatbots mit internem Wissen erklärt

ChatGPT kennt die Welt, aber nicht die Firma. Mit einer einfachen, aber effizienten Technik können LLMs auch auf internes Wissen zugreifen.
/ Andreas Meier
1 Kommentare News folgen (öffnet im neuen Fenster)
RAG'n Roll statt Rock'n Roll: Retrieval-Augmented Generation rockt! (Bild: Pixabay)
RAG'n Roll statt Rock'n Roll: Retrieval-Augmented Generation rockt! Bild: Pixabay / Pixabay License

ChatGPT, Copilot, Claude, Le Chat und viele weitere ähnliche Webdienste stellen leistungsfähige Chatbots auf Basis von Large Language Models (LLM) bereit. Diese LLMs wurden auf riesigen, öffentlich über das Internet einsehbaren (und manchmal wohl auch aus urheberrechtlich schwierigen ) Quellen trainiert. Sie haben damit ein umfassendes Wissen zu allen möglichen Themen, doch zeigt sich gerade beim firmeninternen Einsatz ein Grundproblem: Mitarbeiter wollen zur Lösung ihrer Fragestellungen Chatbots, die den ihnen bekannten, öffentlichen ähnlich sind – aber diese Chatbots sollen firmeninternes Wissen bereitstellen.

Das Training eines LLMs mit diesem internen Wissen scheidet jedoch in der Regel aus. Es ist oft zu wenig Expertise dafür im Unternehmen vorhanden, aufgrund hoher Hardwareanforderungen ist es zu teuer, und infolge langer Trainingszeiten kann das LLM nicht dynamisch an neue Inhalte angepasst werden. Mit Retrieval-Augmented Generation (RAG) gibt es aber eine effiziente und relativ einfache Technik, mit der dennoch Chatbots auf LLM-Basis mit internem Wissen bereitgestellt werden können. Diese Lösung ist heute Stand der Technik für domänenspezifische Chatbots. Der folgende Artikel zeigt neben der grundlegenden Funktionsweise, den Vor- und Nachteilen und nützlichen Tools auch jüngste Weiterentwicklungen auf, um die noch vorhandenen Schwächen auszugleichen.

Golem Plus Artikel