Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Sprachmodelle:
Moral lässt sich nicht trainieren

KI-Insider
Mit der größeren Verbreitung von KI -Systemen wie ChatGPT oder Claude wird eine Frage immer spannender: Welche Werte und Moralvorstellungen vertreten diese Modelle eigentlich?
/ Thilo Hagendorff
10 Kommentare News folgen (öffnet im neuen Fenster)
Kenne die Regeln - für KIs gar nicht so einfach. (Bild: Pixabay)
Kenne die Regeln - für KIs gar nicht so einfach. Bild: Pixabay

Große Sprachmodelle sind derzeit das Mittel der Wahl, um KI-Systeme mit menschlicher Kommunikation und menschlichen Arbeits- und Lebenswelten zu verknüpfen. ChatGPT, Claude und andere haben heute Millionen von Nutzern und stehen an der Schwelle, zur wichtigsten Technologie zu werden – nicht nur, um Texte zu generieren, sondern auch, um Information zu suchen und bei Entscheidungen zu helfen. Daher ist es von großer Bedeutung zu hinterfragen, welche Werte und Moralvorstellungen diese Sprachmodelle vertreten. Denn anders als zum Texte schreiben gibt es hier keine Ground-Truth-Daten.

Systeme, die auf Verfahren des maschinellen Lernens beruhen, erfordern in der Regel zahlreiche Trainingsbeispiele, aus denen Regelmäßigkeiten erkannt und extrapoliert werden können. Für Sprachmodelle bedeutet dies, dass ihre Ground Truth große Mengen an qualitativ ausreichend hochwertigen Texten sind.

Golem Plus Artikel