Sprachmodelle: Moral lässt sich nicht trainieren

KI-Insider Mit der größeren Verbreitung von KI-Systemen wie ChatGPT oder Claude wird eine Frage immer spannender: Welche Werte und Moralvorstellungen vertreten diese Modelle eigentlich?

Artikel von Thilo Hagendorff veröffentlicht am
Kenne die Regeln - für KIs gar nicht so einfach.
Kenne die Regeln - für KIs gar nicht so einfach. (Bild: Pixabay)

Große Sprachmodelle sind derzeit das Mittel der Wahl, um KI-Systeme mit menschlicher Kommunikation und menschlichen Arbeits- und Lebenswelten zu verknüpfen. ChatGPT, Claude und andere haben heute Millionen von Nutzern und stehen an der Schwelle, zur wichtigsten Technologie zu werden – nicht nur, um Texte zu generieren, sondern auch, um Information zu suchen und bei Entscheidungen zu helfen. Daher ist es von großer Bedeutung zu hinterfragen, welche Werte und Moralvorstellungen diese Sprachmodelle vertreten. Denn anders als zum Texte schreiben gibt es hier keine Ground-Truth-Daten.


Weitere Golem-Plus-Artikel
Anga Com: Von der Kabelmesse zum spannenden Glasfaser-Branchentreff
Anga Com: Von der Kabelmesse zum spannenden Glasfaser-Branchentreff

Anga Com Wie geht es weiter mit der angeschlagenen deutschen Kabelnetzbranche? Glasfaser ist das Hauptthema auf der Anga Com gewesen.
Ein Bericht von Achim Sawall


Speicherleaks vermeiden: Ressourcen- und typensicheres Programmieren in C++
Speicherleaks vermeiden: Ressourcen- und typensicheres Programmieren in C++

Bei C++ liegt alles in der Hand der Entwickler - und das kann gut und schlecht sein. Richtig angewendet, ist die Sprache aber alles andere als unsicher.
Eine Anleitung von Adam Jaskowiec


Microsoft: Was ist neu in der dritten Preview von .NET 8?
Microsoft: Was ist neu in der dritten Preview von .NET 8?

Seit Ende Februar folgen im Monatsrhythmus neue Previews von Version 8 des .NET Frameworks. Wir werfen einen genauen Blick auf die Neuerungen der dritten Vorschauversion.
Von Fabian Deitelhoff


    •  /