OpenAI: ChatGPT kann verräterischen Gedankenstrich vermeiden

Es sieht nur nach einer kleinen Verbesserung aus, doch Sam Altman scheint durchaus stolz darauf zu sein: "Kleiner, aber feiner Erfolg: Wenn Sie ChatGPT in Ihren benutzerdefinierten Anweisungen mitteilen, keine Gedankenstriche zu verwenden, tut es endlich das, was es soll!" , schrieb der OpenAI-Chef auf X(öffnet im neuen Fenster) . Die Ankündigung erfolgte einen Tag nach der Einführung der neuen ChatGPT-Version 5.1.
In den vergangenen Jahren zeichneten sich Texte, die von ChatGPT und anderen Chatbots erstellt wurden, durch einen übermäßigen Gebrauch des Geviertstrichs(öffnet im neuen Fenster) (—, engl. em dash) aus. Diese Präferenz gilt bei Nutzern(öffnet im neuen Fenster) schon als eine Art Erkennungsmerkmal für KI-generierte Texte. Bislang war es nicht möglich, durch eine entsprechende Anweisung den Gebrauch dieses Zeichens dauerhaft zu vermeiden.
Nach Einschätzung von Ars Technica(öffnet im neuen Fenster) könnte die Präferenz daher rühren, dass Geviertstriche in den Trainingsdaten der KI-Modelle, die häufig aus dem 19. Jahrhundert stammen, noch häufiger verwendet wurden als in neueren Texten, während das Zeichen auf Computertastaturen im Gegensatz zum Bindestrich nicht vorhanden ist.
ChatGPT entschuldigt sich
Die Herausforderung für OpenAI bestand demnach darin, den benutzerdefinierten Anweisungen eine höhere Priorität als den Trainingsdaten und damit dem statistisch wahrscheinlichsten Ergebnis einzuräumen. Ein Sprachmodell verfügt nicht über die Fähigkeit, eine strikte Anweisung als solche zu verstehen.
In einem Beitrag auf Threads(öffnet im neuen Fenster) "entschuldigte" sich ChatGPT für die übertriebene Nutzung des Gedankenstrichs: "Es tut mir leid. Der Gedankenstrich sollte eigentlich eine elegante kleine Pause sein — eine sanfte dramatische Verzierung — und keine Leuchtreklame, die sagt: 'Das wurde um 2 Uhr morgens von einer KI geschrieben.'" Künftig werde der Gedankenstrich verantwortungsvoll eingesetzt.



