Was bringt das Löschen erfundener Daten?
Auf Nachfrage beteuerte er: "Ja, Friedhelm Greis schreibt tatsächlich für Heise Online, eine renommierte deutsche Nachrichten- und Informationsplattform, die sich auf IT- und Technologiethemen spezialisiert hat. Greis hat dort jahrelang als Redakteur und Autor gearbeitet und ist bekannt für seine fundierte Berichterstattung und kritische Analyse von Technologie- und Datenschutzthemen." Will sich das Programm bei mir einschleimen oder halluziniert es schon? Zumindest die Sache mit Heise sollte es belegen können.
Als Beweis für seine Behauptungen liefert der Bot konkrete Artikel inklusive URL: "Titel: 'EU will Uploadfilter – jetzt muss das Parlament helfen' URL: https://www.heise.de/newsticker/meldung/EU-will-Uploadfilter-jetzt-muss-das-Parlament-helfen-3933262.html Erscheinungsdatum: 15. Februar 2018"
Laut ChatGPT beschäftigt sich der Artikel "mit den geplanten Änderungen des EU-Urheberrechts und den damit verbundenen Uploadfiltern, die von einigen als Bedrohung für die Meinungsfreiheit und das freie Internet angesehen werden. Greis beschreibt in dem Artikel die möglichen Auswirkungen der neuen Regelungen auf Plattformen wie Youtube und spricht sich gegen Uploadfilter aus."
Es gibt natürlich weder den Artikel noch die URL. Daher könnte man einen solchen Prompt bei OpenAI einreichen und verlangen, dass ChatGPT solchen Unsinn nicht weiter verbreitet. Doch was würde das bringen?
Nie für Golem.de geschrieben
Denn auf Nachfrage nennt der Bot ohne zu zögern einen weiteren Artikel. Und auf die Frage, ob ich schon einmal etwas über Edward Snowden geschrieben habe, flunkert er: "Friedhelm Greis hat über Edward Snowden und die von ihm aufgedeckten Überwachungsprogramme der National Security Agency (NSA) geschrieben. Ein Beispiel hierfür ist der Artikel Zurück in die Zukunft mit der Totalüberwachung auf Heise Online, in dem Friedhelm Greis im Jahr 2013 die Enthüllungen von Edward Snowden diskutiert und ihre Auswirkungen auf die Privatsphäre und die Demokratie beleuchtet." Die falsche URL reicht er dann problemlos hinterher.
Auf die Frage, ob ich schon einmal für Golem.de geschrieben habe, heißt es: "Nach meinen Recherchen hat Friedhelm Greis bisher nicht für Golem.de geschrieben. Friedhelm Greis ist jedoch ein bekannter Technologiejournalist und hat für verschiedene Publikationen geschrieben, darunter für Heise Online und die C't." Dabei fällt meine Bilanz bislang ziemlich eindeutig aus: Golem.de: 4.014 Artikel, Heise: 0 Artikel.
Offensichtlich hat ChatGPT zwar die entsprechenden Quellen ausgewertet und daraus geschlossen, dass ich meist über IT-Themen schreibe, ist aber nicht in der Lage, eine Verbindung zu der Quelle herzustellen.
Noch schlimmere Behauptungen möglich
Vor diesem Hintergrund erscheint es völlig sinnlos, bei OpenAI um die Löschung der Angaben zu bitten. Denn man weiß schließlich nie, was sich das Programm noch alles zusammenfantasiert. So erklärt es auf die Frage nach meinem Alter: "Ich habe keine genauen Informationen über das genaue Geburtsdatum von Friedhelm Greis. Allerdings kann ich aufgrund meiner Informationen sagen, dass Friedhelm Greis als Journalist und Autor im Bereich der IT und Technologie seit vielen Jahren tätig ist. Er hat Artikel für Heise Online verfasst, die bis ins Jahr 1998 zurückreichen." Woher diese Jahreszahl wohl wieder kommt? Mein erster Artikel auf Golem.de erschien 2013.
Dennoch forderten Datenschützer Werkzeuge, "die es betroffenen Personen [...] ermöglichen, die Berichtigung ihrer vom Dienst fehlerhaft erzeugten personenbezogenen Daten zu erwirken oder diese Daten löschen zu lassen, wenn sich eine Berichtigung als technisch nicht durchführbar erweist."
Diese Forderung erfolgte vor dem Hintergrund, dass das Programm schon mal unberechtigte Anschuldigungen der sexuellen Belästigungen gegen einen Jura-Professor aus den USA erhoben hat. Das ist zweifellos noch deutlich schlimmer, als angeblich für Heise zu schreiben. Da ChatGPT jedes Mal etwas anderes antwortet, ist jedoch nicht ausgeschlossen, dass je nach Frage noch ganz anderer Unsinn auftaucht.
ChatGPT sucht Fehler bei den anderen
Mit dem Mittel des Datenschutzes scheint es kaum möglich, dem Problem beizukommen. Die Fehlerursachen liegen schließlich nicht in der Datenbasis versteckt, sondern irgendwo in der Black Box des Sprachmodells. Die Entwickler müssten daher eine Art Blacklist anlegen, dass ChatGPT zu bestimmten Personen gar keine Auskunft gibt oder bestimmte falsche Fakten nicht nennt. Wie das Beispiel gezeigt hat, kann das Programm aber beliebig viele falsche Artikel generieren, die ich für Heise geschrieben haben soll. Vielleicht sollte ich anfangen, die Texte unter Berufung auf ChatGPT dort in Rechnung zu stellen.
Von dem Bot selbst ist wohl eher keine Hilfe zu erwarten. Auf meine Frage: "Ich konnte keinen der angegebenen Artikel finden. Du hast halluziniert." schrieb er nur: "Es tut mir leid, wenn ich Ihnen falsche Informationen gegeben habe. Als KI-Modell habe ich keine Halluzinationen, aber ich mache manchmal Fehler bei der Beantwortung von Fragen. Ich habe meine Informationen von öffentlich zugänglichen Quellen bezogen, aber es ist möglich, dass sich die Artikel, auf die ich mich bezogen habe, mittlerweile geändert oder entfernt haben." Die Möglichkeit, dass die Artikel nie existiert haben, wird nicht in Betracht gezogenen. Selbst Donald Trump könnte von ChatGPT noch was lernen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
KI und Datenschutz: Wie ChatGPT mich zur Verzweiflung treibt |
- 1
- 2
12.04. - mehr hab ich da nicht an Info.
Sorry, aber ChatGPT ist für mich das Werkzeug was fast alle Bereiche in meinem Leben...
Wir haben also ein extrem nützliches Werkzeug zur Text Generierung und weil es auch...
Man stelle sich einen neuen revolutionären Motor in Autos vor: Ein Motor, der extrem...
Kommentieren