ChatGPT: EU-Datenschützer fordern richtige Antworten von KI

Der Umgang von KI-Programmen wie ChatGPT mit personenbezogenen Daten kann in mehrfacher Hinsicht gegen europäische Vorgaben verstoßen. Zu dieser Einschätzung kommt der Bericht einer ChatGPT-Arbeitsgruppe, den der Europäische Datenschutzausschuss (EDSA) veröffentlicht hat.
Demnach kann nicht nur das Datensammeln in öffentlichen Quellen ein Problem darstellen. Ebenfalls müssen personenbezogene Daten nach Artikel 5 der EU-Datenschutz-Grundverordnung (DSGVO)(öffnet im neuen Fenster) "sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein" . Dem 14-seitigen Bericht (PDF) zufolge(öffnet im neuen Fenster) führt der probabilistische Charakter des Systems aber zu einem Modell, "das auch verzerrte oder erfundene Ergebnisse liefern kann" .
Grundsatz der Datengenauigkeit beachten
Darüber hinaus würden die von ChatGPT gelieferten Ergebnisse von den Nutzern vermutlich als sachlich richtig angesehen, einschließlich der Informationen über Personen, unabhängig von ihrer tatsächlichen Richtigkeit. "In jedem Fall muss der Grundsatz der Datenrichtigkeit beachtet werden" , heißt es. OpenAI müsse daher "angemessene Informationen über die Mechanismen zur Erstellung probabilistischer Ergebnisse und deren begrenzte Zuverlässigkeit bereitstellen" .
Zwar trügen die von ChatGPT ergriffenen Maßnahmen dazu bei, eine Fehlinterpretation der Ergebnisse zu vermeiden, jedoch "reichen sie nicht aus, um den Grundsatz der Datenrichtigkeit einzuhalten" .
Wegen der Verbreitung falscher Aussagen über Personen reichte die österreichische Datenschutzorganisation Noyb bereits Beschwerde gegen OpenAI ein . Konkret wird OpenAI vorgeworfen, ein falsches Geburtsdatum zu verbreiten. OpenAI habe Noyb zudem nicht mitgeteilt, welche Trainingsdaten dem ausgegebenen Geburtsdatum zugrunde lägen. Das Unternehmen gab demnach an, es habe keine Möglichkeit, zu verhindern, dass seine Systeme ein falsches Geburtsdatum anzeigten.
Nicht alle öffentlichen Daten sind nutzbar
Mit Blick auf Sammlung und Verarbeitung der Trainingsdaten sieht der EDSA ebenfalls rechtliche Probleme. OpenAI berufe sich bei der Verarbeitung auf den Grundsatz des "berechtigten Interesses" nach Artikel 6 der DSGVO(öffnet im neuen Fenster) . Dadurch ist keine Einwilligung der Nutzer erforderlich. Die Frage nach der Rechtmäßigkeit der Verarbeitung sei jedoch noch Gegenstand laufender Untersuchungen.
Eine Ausnahmeregel für das sogenannte Scrapen von Internetinhalten kann dabei Artikel 9 der DSGVO(öffnet im neuen Fenster) darstellen. Demnach dürfen spezielle Kategorien personenbezogener Daten verarbeitet werden, wenn sich die Verarbeitung sich auf Daten bezieht, "die die betroffene Person offensichtlich öffentlich gemacht hat" .
Der Bericht weist jedoch darauf hin, dass nicht alle öffentlichen Daten von Personen von diesen selbst zugänglich gemacht wurden. Um sich auf diese Ausnahme berufen zu können, "muss geprüft werden, ob die betroffene Person ausdrücklich und durch eine eindeutige Handlung beabsichtigt hat, die betreffenden personenbezogenen Daten der Öffentlichkeit zugänglich zu machen" . Eine Einzelfallprüfung sei jedoch beim Scraping "kaum möglich" .
Sensible Daten filtern und löschen
Der Bericht schlägt daher vor, dass solche Daten, aus denen laut Artikel 9 "die rassische und ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen oder die Gewerkschaftszugehörigkeit hervorgehen" , beim Scraping oder der anschließenden Verarbeitung herausgefiltert und gelöscht werden.
Wenn Nutzer selbst solche Daten bei der Nutzung von ChatGPT eingeben, sollten sie "in jedem Fall eindeutig und nachweislich darüber informiert werden, dass diese 'Inhalte' zu Trainingszwecken verwendet werden können" . Darüber hinaus dürfe OpenAI die Verantwortung für die Einhaltung der Datenschutzvorgaben nicht auf die Nutzer abwälzen, beispielsweise durch einen entsprechenden Passus in den Nutzungsbedingungen.
Der Bericht fordert OpenAI zudem dazu auf, für eine bessere Durchsetzung der Nutzerrechte zu sorgen. Derzeit biete das Unternehmen lediglich an, falsche Angaben zu löschen statt zu korrigieren, "wenn eine Berichtigung aufgrund der technischen Komplexität von ChatGPT nicht möglich ist" .



