Zum Hauptinhalt Zur Navigation

KI: CDU-Abgeordneter schiebt Nutzung von SA-Parole auf ChatGPT

KI -Angebote setzen sich zwar immer mehr durch, machen aber auch Fehler. Ein CDU-Politiker macht ChatGPT für eine Naziparole in einem Facebook -Post verantwortlich.
/ Sebastian Grüner
94 Kommentare News folgen (öffnet im neuen Fenster)
Die Ausgaben von KI-Bots wie ChatGPT sollten Nutzer in jedem Fall prüfen. (Bild: Anadolu via Reuters Connect)
Die Ausgaben von KI-Bots wie ChatGPT sollten Nutzer in jedem Fall prüfen. Bild: Anadolu via Reuters Connect

Sepp Müller, Bundestagsabgeordneter der CDU aus Sachsen-Anhalt und stellvertretender Vorsitzender seiner Fraktion, hat einen Facebook-Post der vergangenen Woche nach zahlreichen Hinweisen auf eine darin vorkommende und verbotene Parole der SA gelöscht. Das Bemerkenswerte dabei: Müller behauptet, die Verwendung der Parole sei auf seine Nutzung von ChatGPT zurückzuführen, wie zuerst die Taz berichtete(öffnet im neuen Fenster) .

Demnach beendete Müller den inzwischen gelöschten Facebook-Post, in dem er die Wirtschaftspolitik der Ampel kritisierte, mit dem Hashtag "#DeutschlandErwache" . Dabei handelt es sich um eine Parole der nationalsozialistischen Organisation SA, deren Verwendung nach §86a StGB verboten ist, weil es sich um ein Kennzeichen einer verfassungswidrigen Organisationen handelt.

Auf das entsprechende Verbot weisen etwa der wissenschaftliche Dienst des Bundestags ( PDF(öffnet im neuen Fenster) ) oder auch Landesverfassungsschutzbehörden wie in Hessen ( PDF(öffnet im neuen Fenster) ) hin.

Müller schrieb dazu(öffnet im neuen Fenster) : "Ich habe heute gelernt, dass #ChatGPT sicher viel kann. Aber ganz sicher ist ChatGPT nicht geeignet, um es für meine Social-Media-Texte zu nutzen. Ein durch ChatGTP (sic!) entstandener Hashtag ist in einem FB-Post bei mir veröffentlicht worden."

Und weiter: "Das war so in keiner Weise beabsichtigt und ein sehr großer Fehler. Ich bitte dies zu entschuldigen. Ich habe die entsprechende Passage nach Hinweisen von euch und Ihnen sofort gelöscht."

ChatGPT weist auf rechtsextreme Inhalte hin

Ein kurzer Test der Taz zeigte, dass der KI-Chatbot ChatGPT von OpenAI in der Lage ist, zu erkennen, dass die Parole mit rechtsextremer Ideologie verbunden ist, und warnt demnach deshalb davor, dass solch eine Nutzung "zu Missverständnissen führen und unerwünschte Assoziationen hervorrufen" könne.

Auch Golem.de konnte dieses Verhalten von ChatGPT bestätigen(öffnet im neuen Fenster) . Auf eine entsprechende Anfrage erkannte der Chatbot, dass es sich bei der Parole um einen rechtsextremen Inhalt handelt.


Relevante Themen