Zum Hauptinhalt Zur Navigation

Was das Wort ''delve'' über KI-Training verrät

Zusätzlich zu undurchsichtigen Unternehmensstrukturen erschweren auch technische Umstände den Durchblick. Moderne LLMs bestehen aus Milliarden oder gar Billionen von Parametern, die in den verschiedenen Phasen des Trainings vielfach mittels komplexer mathematischer Operationen optimiert werden.

Es ist deshalb praktisch unmöglich nachzuvollziehen, welchen Einfluss einzelne Datenpunkte auf den Output eines Chatbots haben. Manchmal ergeben sich aber Einblicke, zum Beispiel aus dem englischen Verb "to delve" (tief graben, forschen). ChatGPT hat dafür offenbar eine Vorliebe entwickelt, obwohl die meisten Amerikaner und Engländer es im Alltag nicht benutzen.

Der Investor Paul Graham nannte die Verwendung von "delve" sogar als hinreichenden Grund(öffnet im neuen Fenster) , um Investitionsanfragen kategorisch als automatisch generiert abzuweisen - zum Entsetzen einiger Follower auf X. Denn anders als im amerikanischen Englisch gehört das Wort in den Englisch-Ausprägungen Westafrikas sehr wohl zur Alltagssprache.

Offenbar haben KI-Trainer aus dieser Weltregion so viele Datenpunkte geliefert, dass ChatGPT ihren Sprachgebrauch übernommen hat. So deutlich wie in diesem Beispiel treten die Effekte der Datenherkunft jedoch selten zu Tage; meistens bleibt der Zusammenhang zwischen den einzelnen Trainingsphasen eines LLM und dem Output schwammig.

Die Phasen des KI-Trainings

In der ersten Phase verarbeitet ein neues Modell Texte, Bilder, Klänge oder Videos, so dass es eine unspezifische Repräsentation jener Medien abbildet. Durch selbstüberwachtes Lernen (Self-supervised Learning), das heißt ohne großes menschliches Zutun, lernt es, die vielseitigen Beziehungen zwischen den Wörtern der darin enthaltenen Sprache in seinen Parametern widerzuspiegeln. Gebräuchliche Methoden sind Masking und Next Sentence Prediction, bei denen die Parameter eines Modells optimiert werden, indem es Lücken in einem Text mit dem richtigen Wort füllen beziehungsweise die Reihenfolge von Sätzen bestimmen muss.

Ein so erzeugtes Foundation Model ist ein begabter Generalist, fällt bei klassischen Machine-Learning-Tasks wie automatischer Textklassifikation jedoch hinter spezialisierte Modelle zurück. Deshalb folgt eine Fine-Tuning-Phase auf Basis annotierter Datensätze, die neben den Rohdaten aufgabenspezifische Zusatzinformationen - Annotationen - enthalten.

Ein typischer Anwendungsfall ist ein Spam-Filter, der auf Basis vieler zuvor manuell als Spam markierter E-Mails lernt, sie automatisch aufzuspüren. Die Methode, die Parameter eines Modells mittels eines solchen annotierten Datensatzes anzupassen, heißt überwachtes Lernen (Supervised Learning).


Relevante Themen