Fine-Tuning: KI mit Fingerspitzengefühl

Die Basis großer Sprachmodelle ist das Vortraining auf riesigen Textkorpora. Beim diesem Pre-Training lernen die Modelle, das nächste Token zu prognostizieren und so allgemeine Sprachmuster zu internalisieren. Für LLMs wie Llama 3 oder GPT-4 bedeutet das, viele Milliarden Tokens zu verarbeiten, was Wochen bis Monate Rechenzeit erfordert.
Oft reicht dieses generische Sprachverständnis aber nicht aus, um speziellere Aufgaben umzusetzen. Modelle sollen zum Beispiel auf konkrete Aufgaben wie Chatbots, Klassifikationen oder Übersetzungen vorbereitet sein – was sie erstmal aber nicht sind. Fine-Tuning(öffnet im neuen Fenster) als Prozess, bei dem ein vortrainiertes Modell mit einem kleineren, domänenspezifischen Datensatz weiter trainiert, kann helfen, um die Leistung für eine bestimmte Aufgabe zu verbessern. Da das vortrainierte Wissen als Basis zum Einsatz kommt, ist Fine-Tuning wesentlich ressourcenschonender als das Pre-Training. In diesem Artikel beschreiben wir (auch anhand eines praktischen Beispiels in Python), wie das geht, welche Unterschiede zwischen Fine-Tuning und RAG bestehen und welche Daten man am besten nimmt.