Sprachmodelle: Moral lässt sich nicht trainieren

KI-Insider Mit der größeren Verbreitung von KI-Systemen wie ChatGPT oder Claude wird eine Frage immer spannender: Welche Werte und Moralvorstellungen vertreten diese Modelle eigentlich?

Artikel von Thilo Hagendorff veröffentlicht am
Kenne die Regeln - für KIs gar nicht so einfach.
Kenne die Regeln - für KIs gar nicht so einfach. (Bild: Pixabay)

Große Sprachmodelle sind derzeit das Mittel der Wahl, um KI-Systeme mit menschlicher Kommunikation und menschlichen Arbeits- und Lebenswelten zu verknüpfen. ChatGPT, Claude und andere haben heute Millionen von Nutzern und stehen an der Schwelle, zur wichtigsten Technologie zu werden – nicht nur, um Texte zu generieren, sondern auch, um Information zu suchen und bei Entscheidungen zu helfen. Daher ist es von großer Bedeutung zu hinterfragen, welche Werte und Moralvorstellungen diese Sprachmodelle vertreten. Denn anders als zum Texte schreiben gibt es hier keine Ground-Truth-Daten.


Weitere Golem-Plus-Artikel
Github, Gitlab, Google, KI, Opensearch: Vom Suchen und Löschen von Code
Github, Gitlab, Google, KI, Opensearch: Vom Suchen und Löschen von Code

Dev-Update Google pflegt Code per Sensenmann, Github bringt eine neue Suche, KI-Coding-Werkzeuge treten gegeneinander an und werden frei. Außerdem bekommt das Web Grundfunktionen.
Von Sebastian Grüner


Technical Debt: Die unbezahlte Schuld der Entwickler
Technical Debt: Die unbezahlte Schuld der Entwickler

Technische Schuld ist eine der teuersten Budget- und Wartungsfallen in der Softwareentwicklung. Wir erklären, wie man sie unter Kontrolle bekommt.
Ein Ratgebertext von Rene Koch


Anga Com: Von der Kabelmesse zum spannenden Glasfaser-Branchentreff
Anga Com: Von der Kabelmesse zum spannenden Glasfaser-Branchentreff

Anga Com Wie geht es weiter mit der angeschlagenen deutschen Kabelnetzbranche? Glasfaser ist das Hauptthema auf der Anga Com gewesen.
Ein Bericht von Achim Sawall


    •  /