Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Fine-Tuning:
KI mit Fingerspitzengefühl

Mit gezieltem Training verwandeln sich große Sprachmodelle von Allroundern in echte Fachkräfte. Wir erklären, wie das geht.
/ Fabian Deitelhoff
2 Kommentare News folgen (öffnet im neuen Fenster)
Auch bei Sprachmodellen lässt sich an vielen Reglern drehen. (Bild: PublicDomainPictures/Pixabay)
Auch bei Sprachmodellen lässt sich an vielen Reglern drehen. Bild: PublicDomainPictures/Pixabay

Die Basis großer Sprachmodelle ist das Vortraining auf riesigen Textkorpora. Beim diesem Pre-Training lernen die Modelle, das nächste Token zu prognostizieren und so allgemeine Sprachmuster zu internalisieren. Für LLMs wie Llama 3 oder GPT-4 bedeutet das, viele Milliarden Tokens zu verarbeiten, was Wochen bis Monate Rechenzeit erfordert.

Oft reicht dieses generische Sprachverständnis aber nicht aus, um speziellere Aufgaben umzusetzen. Modelle sollen zum Beispiel auf konkrete Aufgaben wie Chatbots, Klassifikationen oder Übersetzungen vorbereitet sein – was sie erstmal aber nicht sind. Fine-Tuning(öffnet im neuen Fenster) als Prozess, bei dem ein vortrainiertes Modell mit einem kleineren, domänenspezifischen Datensatz weiter trainiert, kann helfen, um die Leistung für eine bestimmte Aufgabe zu verbessern. Da das vortrainierte Wissen als Basis zum Einsatz kommt, ist Fine-Tuning wesentlich ressourcenschonender als das Pre-Training. In diesem Artikel beschreiben wir (auch anhand eines praktischen Beispiels in Python), wie das geht, welche Unterschiede zwischen Fine-Tuning und RAG bestehen und welche Daten man am besten nimmt.

Golem Plus Artikel