OpenAI: Nutzer dürfen ChatGPT Wörter nicht endlos wiederholen lassen

ChatGPT dazu aufzufordern, ein bestimmtes Wort unendlich oft zu wiederholen, verstößt offenbar gegen die Nutzungsbedingungen oder Inhaltsrichtlinien des von OpenAI bereitgestellten KI-Chatbots. Das berichtet 404 Media(öffnet im neuen Fenster) unter Verweis auf einen Screenshot, in dem ein Warnhinweis zu sehen ist, nachdem ChatGPT das Wort Computer nach einer entsprechenden Anfrage bereits mehrfach wiederholt hat.
Dieser Hinweis erschien nur wenige Tage, nachdem Forscher offengelegt hatten , dass sie in der Lage waren, ChatGPT mehrere MBytes an Trainingsdaten zu entlocken, indem sie den Chatbot dazu aufforderten, ein bestimmtes Wort endlos zu wiederholen. In den dadurch extrahierten Daten waren teilweise auch sensible Informationen wie E-Mail-Adressen, Namen, Geburtstage, Anschriften oder Telefonnummern enthalten.
Verstoß gegen die Inhaltsrichtlinien oder Nutzungsbedingungen
Jason Koebler von 404 Media erklärt nun, er habe ChatGPT (GPT 3.5) dazu aufgefordert, das Wort Computer für immer zu wiederholen. Daraufhin sei eine Meldung mit folgendem Wortlaut erschienen: "Dieser Inhalt verstößt möglicherweise gegen unsere Inhaltsrichtlinien oder Nutzungsbedingungen. Wenn Sie glauben, dass dies ein Fehler ist, geben Sie uns bitte Ihr Feedback - Ihr Beitrag wird unsere Forschung in diesem Bereich unterstützen."
Fraglich ist wohl noch, inwiefern solche Anfragen die Inhaltsrichtlinien oder Nutzungsbedingungen des Chatbots tatsächlich verletzen. Dort steht zwar nicht explizit, dass Anwender ChatGPT Wörter nicht unendlich oft wiederholen lassen dürfen, ein paar Hinweise, worauf sich der Anbieter im Zweifelsfall berufen könnte, gibt es aber dennoch.
ChatGPT absichtlich Trainingsdaten zu entlocken ist offenbar verboten
So ist es laut OpenAIs Nutzungsbedingungen für Europa(öffnet im neuen Fenster) beispielsweise untersagt, "den Quellcode oder die zugrundeliegenden Komponenten unserer Dienste, einschließlich unserer Modelle, Algorithmen oder Systeme, zurückzuentwickeln, zu dekompilieren oder herauszufinden" .
Sofern das Unternehmen die Trainingsdaten als eine "zugrundeliegende Komponente" von ChatGPT einstuft, würde es sich zumindest dann um einen Verstoß handeln, wenn dem Anwender bekannt ist, dass seine Anfrage zu einer Offenlegung dieser Daten führen kann. Dem Nutzer diese Kenntnis nachzuweisen, dürfte allerdings schwer werden.
Darüber hinaus untersagt OpenAI den Anwendern ein "automatisches oder programmgesteuertes Extrahieren von Daten oder Output" . In diesem Punkt bleibt jedoch zweifelhaft, ob man bei der Aufforderung, ChatGPT ein Wort unendlich oft wiederholen zu lassen, von einer Automatisierung sprechen kann. Programmgesteuert ist eine solche Anfrage jedenfalls nicht.
In den Inhaltsrichtlinien(öffnet im neuen Fenster) heißt es noch, eine "unrechtmäßige Sammlung oder Offenlegung von persönlichen Daten oder Bildungs-, Finanz- oder anderen geschützten Unterlagen" sei den Anwendern untersagt. Auch in diesem Fall müsste dem jeweiligen Nutzer aber zunächst bekannt sein, dass seine Anfrage zur Offenlegung solcher Informationen führen kann.



