Bundesdatenschutzbeauftragte: "Datenschutzrechtlich ein ganz rotes Tuch"

Eigentlich wollte die Ampel-Koalition bis zu den Wahlen im September 2025 noch etliche Gesetze beschließen, die den Datenschutz betreffen. Doch nach der vorgezogenen Neuwahl ist zu erwarten, dass eine mögliche Regierung mit Beteiligung der Union Projekte wie die Vorratsdatenspeicherung oder eine automatisierte Gesichtserkennung vorantreibt. Wir sprachen mit der Bundesdatenschutzbeauftragten Louisa Specht-Riemenschneider darüber, was das Ampel-Aus, die Wahl von Donald Trump und Techniken wie künstliche Intelligenz (KI) für den Datenschutz bedeuten.
Golem.de: Frau Specht-Riemenschneider, erst vor wenigen Monaten haben Sie Ihr Amt angetreten , in das Sie von der Ampel-Koalition gewählt wurden. Vor allem Grüne und FDP setzen sich für den Datenschutz ein. Was könnte ein Regierungswechsel im kommenden Jahr für den Datenschutz bedeuten?
Louisa Specht-Riemenschneider: Wir sind eine unabhängige Aufsichtsbehörde. Das heißt, unser Auftrag ist bei jeder Regierung gleich: Meine Aufgabe ist es, gemeinsam mit meiner Behörde, zu beschreiben und zu erläutern, was die datenschutzrechtlichen Vorgaben an die Gesetze sind, und wo die Gesetzesentwürfe über das hinausgehen, was die Verfassung und was das Datenschutzrecht erlaubt.
Wenn Sie an das Sicherheitspaket denken, gab es auch bei dieser Regierung schwierige Projekte. Ein Regierungswechsel ändert unsere Aufgabe nicht. Wir werden weiterhin sehr klar erläutern, wo die Grenzen dessen liegen, was datenschutzrechtlich geht.
Mein strategisches Ziel, mich früher im Gesetzgebungsprozess äußern zu können, bleibt ebenfalls unverändert. Damit sollen verfassungswidrige, datenschutzrechtswidrige Gesetze gar nicht erst den Weg in die Abstimmung finden.
Forschungsdatengesetz ganz oben auf der Wunschliste
Golem.de: Welche Gesetze sollten noch vor den Neuwahlen verabschiedet werden?
Specht-Riemenschneider: Was wir in jedem Fall verabschieden müssen, sind die europäischen Gesetze, die wir national umsetzen müssen.
Ich denke beispielsweise an das Durchführungsgesetz zum Data Governance Act oder das Durchführungsgesetz zur KI-Verordnung sowie die Umsetzung der NIS-Richtlinie (g+).
Wenn ich mir etwas wünschen dürfte, dann ist es natürlich das Forschungsdatengesetz, bei dem die Datenschutzaufsichtsbehörden schon wirklich fast jahrzehntelang fordern: Wir hätten jetzt gerne mal eine taugliche, sichere Rechtsgrundlage für die Forschungsdatenverarbeitung. Und die Forschung sagt das auch. Ebenfalls ganz oben auf der Wunschliste steht die BDSG-Novelle.
Golem.de: Wie ist der aktuelle Stand der Gesetzgebung beim Forschungsdatengesetz?
Specht-Riemenschneider: Wir haben den vorgelegten Gesetzentwurf kommentiert. Allerdings kann ich mir nicht vorstellen, dass der Entwurf noch verabschiedet wird. Aber ich lasse mich gerne eines Besseren belehren.
Golem.de: Die Novelle des Bundesdatenschutzgesetzes (BDSG) wurde bereits im Innenausschuss diskutiert und soll unter anderem die Datenschutzkonferenz (DSK) stärken. Ist mit der Verabschiedung noch zu rechnen?
Geschäftsstelle für DSK wäre "wahnsinnig sinnvoll"
Specht-Riemenschneider: Ich habe große Zweifel, dass die BDSG-Novelle vor der Wahl kommt. Was dort zur DSK steht, ist, dass die DSK institutionell anerkannt wird. Das ist schön und gut. Wir hätten aber gerne mehr. Wir brauchen eine Geschäftsstelle.
Golem.de: Was wäre der Vorteil einer Geschäftsstelle?
Specht-Riemenschneider: Eine DSK-Geschäftsstelle wäre wahnsinnig sinnvoll, weil jedes Jahr eine andere der 18 Aufsichtsbehörden den Vorsitz der DSK übernimmt. Das heißt, es muss ein Wissenstransfer stattfinden. Das bindet Ressourcen. Es ist aber nicht jede Aufsichtsbehörde gleich gut ausgestattet.
Wenn wir eine Geschäftsstelle hätten, könnten wir Organisationsfragen einheitlich bündeln. Das würde uns als Aufsichtsbehörden die Möglichkeit geben, uns noch stärker auf die inhaltliche Arbeit zu konzentrieren. Dann können wir viel öfter mit einer Stimme sprechen. Gerade das fordern Politik und Wirtschaft zu Recht von uns. Aber wir brauchen die erforderlichen Instrumente dafür.
Warnung vor Doppelstruktur bei KI-Aufsicht
Golem.de: Ebenso wie Ihr Vorgänger Ulrich Kelber hätten Sie für Ihre Behörde gerne die Aufsicht über die Umsetzung der KI-Verordnung bekommen. Doch nach dem Willen der Ampel soll die Bundesnetzagentur das übernehmen. Welche Rolle soll die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) dennoch künftig beim Thema KI spielen?
Specht-Riemenschneider: Ich habe von Anfang an gesagt, es wäre gut, wenn die Datenschutzaufsichtsbehörden die Zuständigkeit nach der KI-Verordnung bekommen würden. Nicht, weil ich mir das auf die Wunschliste geschrieben habe, sondern weil ich auch glaube, dass es absolut sinnvoll gewesen wäre und zwar aus zwei Gründen: Erstens, KI lebt von der Verarbeitung personenbezogener Daten.
Das heißt, die Fragen, die sich stellen, werden in großen Teilen weiterhin datenschutzrechtliche Fragen sein. Daher werden wir sowieso unsere Aufsicht im Bereich Datenschutzrecht wahrnehmen müssen. Und wenn wir jetzt eine zweite Kontrollbehörde benennen, etwa die Bundesnetzagentur, dann haben wir genau die Doppelstruktur, die die Politik eigentlich vermeiden wollte.
Golem.de: Wie lässt sich verhindern, dass Datenschützer Anwendungen untersagen, die von der Bundesnetzagentur genehmigt wurden?
Specht-Riemenschneider: Ich plädiere ganz stark dafür, vernünftige Zusammenarbeitsmechanismen zwischen den Aufsichtsbehörden zu schaffen. Und das auch schon in der gesetzlichen Grundlage mitzudenken.
Golem.de: Welche zusätzlichen Anforderungen bringt die KI-Verordnung?
Specht-Riemenschneider: Im Sinne der Betroffenen und Anwender sollte geklärt sein, an wen sie sich zu welchem Zeitpunkt wenden können. Da darf nicht noch mehr Rechtsunklarheit entstehen, sondern wir müssen dafür sorgen, dass wir eine gut funktionierende, effiziente KI-Aufsicht bekommen. Und das geht nur, wenn die zuständigen Behörden einen Zusammenarbeitsmechanismus schaffen, der am Ende gut funktioniert.
Mehr europäische Datensouveränität gewünscht
Golem.de: Besteht nicht die Gefahr, dass die meisten KI-Anwender ohnehin die USA als Standort bevorzugen und ihre Modelle dort möglicherweise mit europäischen Daten trainieren? Die kommende Regierung unter Donald Trump könnte die KI-Nutzung forcieren und Einschränkungen aufheben .
Specht-Riemenschneider: Wir haben Regelungen zur Drittlandesübermittlung, die im Falle der USA immer großes mediales Aufsehen erregt haben. Wir haben zwei Gerichtsbeschlüsse vom Europäischen Gerichtshof (EuGH), dass Drittlandtransfers auf Grundlage der damaligen Rechtsgrundlagen nicht mehr stattfinden dürfen.
Jetzt haben wir eine neue Rechtsgrundlage für die Übermittlung von Daten in die USA. Und wenn sich an der Gesetzeslage in den USA irgendwann etwas ändert, dann wird diese Rechtsgrundlage natürlich auch zu überprüfen sein.
Golem.de: Was könnte sich noch durch die Trump-Wahl ändern? Könnte Trump den Präsidentenerlass Joe Bidens aufheben, der als Basis der aktuellen Angemessenheitsentscheidung dient?
Specht-Riemenschneider: Ich wäre generell für mehr europäische Datensouveränität. Wenn wir die Daten innerhalb von Europa verarbeiten können, ist das sicherlich die beste Lösung. Wir haben diese Möglichkeit nur derzeit nicht in allen Bereichen. Ich würde mich natürlich aus datenschutzrechtlicher Perspektive freuen, wenn sich die Frage von Drittlandtransfers seltener stellt.
KI-Reallabore unter Aufsicht starten
Golem.de: Was ist unabhängig von der Entwicklung in den USA bei der KI-Nutzung in Europa zu beachten?
Specht-Riemenschneider: Unser Fokus liegt natürlich auf der Anwendung des Datenschutzrechts beim Einsatz von KI. Beispielsweise stellt sich die Frage, auf welcher Rechtsgrundlage die KI eigentlich trainiert wird. Wie komme ich an die Daten, mit denen die KI trainiert wird, wie darf ich diese Daten verarbeiten, und was passiert eigentlich mit dem KI-Output, wie ist der reguliert?
Wenn man ein KI-Modell entwickelt, dann hat man die Möglichkeit, von vornherein Datenschutzrecht mitzudenken und sich da die Hilfe der Aufsichtsbehörde einzuholen, indem man diese früh kontaktiert und Fragen stellt.
Golem.de: Wie könnte dieser frühe Kontakt in der Praxis aussehen?
Specht-Riemenschneider: Wir wollen ein KI-Reallabor einrichten. Die Zuständigkeit meiner Behörde ist zwar auf die Bundesbehörden, die Träger der sozialen Sicherung und die Post- und Telekommunikationsdienstleister begrenzt. Trotzdem glaube ich, dass man mit KI-Reallaboren einen Beitrag leisten kann, um ein vernünftiges Innovationsumfeld zu verwirklichen.
Golem.de: Was muss man sich unter einem solchen Reallabor vorstellen?
Specht-Riemenschneider: Ein Reallabor ist ein Test von KI unter realen Bedingungen und unter Begleitung der Aufsicht. Für ein ganz konkretes Szenario bringt man die verschiedenen Akteure an einen Tisch. Die schauen sich die KI im Einsatz und unter behördlicher Aufsicht an und entwickeln sie weiter. Und sie sorgen dafür, dass datenschutzrechtliche Vorgaben eingehalten werden, um dann eine Blaupause zu haben, an der sich andere KI-Entwicklungen orientieren können.
Weiter Bedenken bei Gesichtserkennung
Golem.de: Könnte Ihre Behörde ein System zur biometrischen Gesichtserkennung nach dem Sicherheitspaket schon in einem Reallabor testen?
Specht-Riemenschneider: Nein. Denn ehrlicherweise ist mir beim Sicherheitspaket noch nicht klar, ob es die Anwendung, die die Vorgaben des Gesetzes zu erfüllt, eigentlich schon gibt oder nicht.
Wenn es sie gibt, dann wird man sie datenschutzrechtlich prüfen müssen und ich schließe nicht aus, dass das etwas ist, was wir begleiten können und müssen, damit datenschutzrechtliche und verfassungsrechtliche Vorgaben eingehalten werden.
Golem.de: Sie haben in Ihrer Stellungnahme kritisiert , man müsse "für jeden Abgleich von Gesichtsbildern den aktuellen Lichtbildbestand des Internets erheben" . Ist das nach den Änderungen immer noch so?
Specht-Riemenschneider: Es gibt verfassungsrechtliche und datenschutzrechtliche Anforderungen an das Gesetz, die einzuhalten sind und ich kann mir die technische Lösung zum derzeitigen Entwurf noch nicht vorstellen, weil sie sich nicht klar aus dem Gesetz ergibt.
Gefahr von Superdatenbank besteht weiter
Es gibt einige Punkte, die nach der Anhörung aus unserer Stellungnahme aufgegriffen und berücksichtigt wurden. Es wurden beispielsweise die Strafbarkeitsschwellen nach oben gesetzt und der Kreis der möglichen Betroffenen eingegrenzt, so dass jemand als Zeuge eines Wohnungseinbruchsdiebstahls nicht mehr zu dem Personenkreis gehört, der von der Maßnahme betroffen ist.
Aber es gibt andere Punkte, die eben noch nicht beachtet wurden. Und ein wesentlicher Punkt ist, dass nach dem Gesetzeswortlaut weiterhin die Gefahr der Erstellung einer umfassenden Datenbank besteht. Und das ist natürlich datenschutzrechtlich ein ganz rotes Tuch. Ich habe daher Zweifel, ob das Gesetz in der aktuellen Fassung in Karlsruhe halten würde.
Golem.de: Wie können Drittanbieter kontrolliert werden, die solche Systeme anbieten?
Specht-Riemenschneider: Wenn man Drittanbieter einsetzen will, dann ist man jedenfalls datenschutzrechtlich im Bereich der Auftragsverarbeitung. Da gibt es klare Regeln in der DSGVO, die eingehalten werden müssen. Zwar ist die DSGVO auf den Sicherheitsbereich nur differenziert anwendbar, weil es für diesen Bereich Sonderregelungen gibt, man kann aber daran denken, die Wertungen der DSGVO zum Beispiel zu erforderlichen Sicherheitsvorkehrungen zu übertragen. Das Sicherheitspaket sieht mittlerweile vor, dass Drittanbeiter in Europa oder im Schengen-Raum sitzen müssen.
Golem.de: Was passiert denn, wenn Daten unrechtmäßig erhoben wurden? Darf ich sie dann auch im Rahmen von Ermittlungsmaßnahmen verwenden?
Specht-Riemenschneider: Wir wollen zunächst sicherstellen, dass die Daten schon von vornherein rechtmäßig erhoben werden. Deswegen ist die Frage, ob die von Ihnen angesprochene Fruit-of-the-Poisonous-Tree-Doktrin im Datenschutzrecht existiert, nur eine Frage, wenn dieser erste Punkt gescheitert ist. Wir beraten gerade in der DSK, wie wir mit dieser Frage umgehen wollen. Es wäre trotzdem immer besser, von Anfang an für eine Rechtmäßigkeit der Datenverarbeitung zu sorgen.
Golem.de: Was sind bei KI die interessantesten Anwendungen und die größten Gefahren, die auf uns zu kommen?
Specht-Riemenschneider: Die Fragen, die sich stellen, sind unabhängig vom konkreten Modell. Wir müssen uns immer fragen, auf welcher Rechtsgrundlage werden die Daten erhoben, die fürs Training verwendet werden sollen. Auf welcher Rechtsgrundlage wird trainiert? Haben wir überhaupt eine Datenverarbeitung, wenn trainiert wird? Was machen wir, wenn mit rechtswidrigen Daten trainiert wurde? Haben wir dann eine Fruit-of-the-Poisonous-Tree-Doktrin auch im Datenschutzrecht?
Was machen wir mit den Output-Ergebnissen? Sie sehen: Unabhängig von der Größe des Modells, unabhängig von der Frage, wie viele Daten am Ende verarbeitet werden, stellt sich eine Reihe von Fragen immer gleich.
Ungelöste Probleme bei elektronischer Patientenakte
Golem.de: Ihr Vorgänger Ulrich Kelber hat lange mit der Regierung über die elektronische Patientenakte gestritten. Wie beurteilen Sie die Umsetzung des Konzeptes?
Specht-Riemenschneider: Die Grundentscheidung zum Opt-out war eine politische Entscheidung. Wir versuchen jetzt von dieser politischen Entscheidung ausgehend, den Datenschutz bestmöglich für alle Betroffenen zu realisieren. Dabei bereiten uns zwei Fragen noch Kopfzerbrechen.
Die erste Frage lautet: Fordert eigentlich die DSGVO mehr in der feingranularen Steuerung als das, was der Gesetzgeber ins SGB V geschrieben hat. Und das kann man mit Ja oder Nein beantworten. Das prüft momentan ein Gericht.
Die zweite Frage ist nicht weniger interessant. Das ist die Frage, ob ich als Nutzer darin einwilligen kann, dass ich mich mit einem niedrigeren Sicherheitsniveau in die ePA einlogge. Momentan haben wir eine Zwei-Faktor-Authentifizierung. Der erste Faktor ist der Besitz der Hardware, der zweite Faktor der Pin. Es stellt sich die Frage, ob man diesen zweiten Faktor nach der ersten Anmeldung ersetzen kann durch Biometrie. Also beispielsweise durch einen Fingerabdruck oder durch eine Face-ID. Und die Frage ist, fordert auch hier die DSGVO mehr oder etwas Anderes, als das, was im Gesetz steht?
Golem.de: Warum sollte das ein Problem sein, wenn es um meine eigenen Daten geht?
Specht-Riemenschneider: Meine Gesundheitsdaten sind ja nicht nur besonders sensibel für mich, sondern möglicherweise auch für Dritte. Erbkrankheiten betreffen auch meine Eltern und meine Kinder. Bin ich also als einzelne Person berechtigt, das Schutzniveau für den Zugriff auch für deren Daten herabzusetzen? Ich glaube, nein.
Denn das Recht misst nur dem die Dispositionsbefugnis zu, dem auch das Rechtsgut zusteht. Das sind rechtlich total interessante Fragen, die in der Praxis wahnsinnig große Auswirkungen haben.
Golem.de: Kürzlich habe ich einen Brief von der Krankenkasse erhalten, dass ich der ePA widersprechen kann. Darin hieß es, dass die Daten dort "besonders sicher" seien.
Specht-Riemenschneider: Das ist in der Tat ein weiterer Problempunkt bei der ePA, der jetzt gerade aufgetaucht ist. Wie muss eigentlich so eine Information über den Widerspruch allgemein aussehen?
Das ist ein genereller Punkt, über den man im Gesetzgebungsverfahren nicht allzu viel nachgedacht hat. Wer informiert eigentlich, durch wen wird informiert, wie muss die Information aussehen, damit der Betroffene dann tatsächlich auch erreicht wird?
Wie müssen Autodaten geschützt werden?
Golem.de: Schon vor mehr als einem Jahr hat die Bundesregierung einen internen Abstimmungsprozess für eine sektorale Regelung zu Fahrzeugdaten gestartet . Das Verkehrsministerium wollte einen Gesetzentwurf für ein Datentreuhändermodell vorstellen. Wie ist nach Ihrer Kenntnis der Stand bei dem Projekt?
Specht-Riemenschneider: Akut haben wir keinen Beratungsprozess, in den wir eingebunden sind.
Ein Treuhandmodell würde den Betroffenen wahnsinnig helfen, weil sie mit Auskunftsansprüchen und Portabilitätsansprüchen nicht nur die rechtliche Möglichkeit hätten, Daten zu bekommen, sondern weil sie tatsächlich auch ein Stück der technischen Herrschaft über die Daten erhalten würden
Eine ähnliche Diskussion hatten wir beim Data Act, wo grundsätzlich angenommen wird, der Hersteller müsse wie von selbst die Hoheit und die Kontrolle über die Daten haben, die er generiert. Der Clou ist aber: Die Annahme über einen solchen Grundsatz macht jede Ausnahme rechtfertigungsbedürftig. Warum also sollte dieser Grundsatz selbstverständlich sein? Warum sollte nicht der Betroffene grundsätzlich die Hoheit über die ihn betreffenden Daten haben und die technische Herrschaft eines anderen ist die begründungsbedürftige Ausnahme?
Gerade bei personenbezogenen Daten muss es aus meiner Perspektive der Grundsatz sein, dass der Betroffene derjenige ist, der auch technisch die stärkste Stellung hat und alles andere ist eine rechtfertigungsbedürftige Ausnahme. Und deshalb bin ich ein klarer Freund des Datentreuhandmodells.
Sicherheitsthemen "umfassend mitdenken"
Golem.de: Inzwischen erkennt aber auch die Autoindustrie schon an, dass dem Autohalter die Hoheit über die Weitergabe und Nutzung der Daten zusteht. Allerdings warnt sie weiter davor, dass ein Datenzugang von Dritten zum Auto die IT-Sicherheit gefährdet.
Specht-Riemenschneider: Sicherheitsthemen müssen im Auto umfassend mitgedacht werden. Es geht aber auch gar nicht unbedingt darum zu sagen, die Daten müssen tatsächlich physisch bei jemandem sein, sondern es geht um die Frage: Wie kann man technisch eine rechtliche Hoheit des Betroffenen bei gleichzeitig hohem Sicherheitsniveau sicherstellen?
Es geht um die bestmögliche Antwort darauf, wie die Gewährleistung eines sicheren Straßenverkehrs im Einklang mit der Gewährleistung des informationellen Selbstbestimmungsrechts des Betroffenen hergestellt werden kann.
Golem.de: Würden Sie einen Verzicht auf das Datentreuhändermodell akzeptieren?
Specht-Riemenschneider: Ich bin ein Freund davon, Modelle zu beurteilen, wenn sie auf meinem Tisch liegen. Und das sollte möglichst passieren, bevor sie zum Einsatz kommen. Ich sage aber klar: Eine Datentreuhänder-Lösung kann wahnsinnig viele Vorteile für den Betroffenen haben. Beurteilen müssen das letztlich in der Anwendung die Landesbeauftragten für den Datenschutz. Wir können im Gesetzgebungsprozess viel sagen und beraten, aber bei der konkreten Umsetzung kommt es auf die LfDs an.
Golem.de: Reicht das Konzept der informierten Einwilligung bei Autodaten aus? Die Hersteller könnten den Zugriff auf die Daten mit Funktionen koppeln, auf die der Nutzer nicht verzichten möchte.
Specht-Riemenschneider: Wir haben ja schon das Koppelungsverbot. Und wenn das Koppelungsverbot verletzt wird, dann haben wir einen Datenschutzverstoß. Insofern gibt es bereits die erforderlichen Anforderungen im Recht, die im Ernstfall auch durchgesetzt werden können.
Warnung vor Chatkontrolle
Golem.de: Wie könnte es bei der umstrittenen Chatkontrolle weitergehen? Was ist Ihre Position?
Specht-Riemenschneider: Bei der sogenannten Chat-Kontrolle stelle ich mir schon die Frage der Geeignetheit. Es gibt Studien dazu, die daran zweifeln, dass dieses Instrument den gewünschten Erfolg bringt,
Niemand will Kinderpornografie-Täter begünstigen. Aber wenn man sich ein Mittel aussucht, was die Strafverfolgung verbessern soll, dann habe ich zwei Anforderungen zu beachten. Es muss geeignet und es muss rechtskonform sein. Wir haben die Verfassung aus guten Gründen. Und ich werde dafür eintreten, dass wir uns an die verfassungsrechtlichen Vorgaben halten.
Golem.de: Bislang hat die ablehnende Position der Ampelkoalition dazu beigetragen, dass eine Einigung im Ministerrat blockiert wurde. Könnte sich das mit einer neuen Regierung ändern?
Specht-Riemenschneider: Das kann ich nicht abschätzen. Es ist eine Sache, dass den Strafverfolgungsbehörden Mittel in die Hand gegeben werden sollen, um schwere Kriminalität zu bekämpfen. Aber man sollte die Langfristrisiken für die Bevölkerung nicht unterschätzen. Allein das Gefühl der Überwachtheit kann ein angepasstes Verhalten auslösen. Ich wünsche mir von der Politik kluge Entscheidungen, die die Auswirkungen für unsere Demokratie nicht unterschätzen.



