Sprachmodelle: Moral lässt sich nicht trainieren
Große Sprachmodelle sind derzeit das Mittel der Wahl, um KI-Systeme mit menschlicher Kommunikation und menschlichen Arbeits- und Lebenswelten zu verknüpfen. ChatGPT, Claude und andere haben heute Millionen von Nutzern und stehen an der Schwelle, zur wichtigsten Technologie zu werden – nicht nur, um Texte zu generieren, sondern auch, um Information zu suchen und bei Entscheidungen zu helfen. Daher ist es von großer Bedeutung zu hinterfragen, welche Werte und Moralvorstellungen diese Sprachmodelle vertreten. Denn anders als zum Texte schreiben gibt es hier keine Ground-Truth-Daten.
Systeme, die auf Verfahren des maschinellen Lernens beruhen, erfordern in der Regel zahlreiche Trainingsbeispiele, aus denen Regelmäßigkeiten erkannt und extrapoliert werden können. Für Sprachmodelle bedeutet dies, dass ihre Ground Truth große Mengen an qualitativ ausreichend hochwertigen Texten sind.