Zum Hauptinhalt Zur Navigation

KI-Verordnung: Hype um Chatbots bringt EU in die Bredouille

Die Verhandlungen über die KI -Verordnung der EU sind schon weit fortgeschritten. Doch nun wird über die Risiken von Chatbots gestritten.
/ Friedhelm Greis
15 Kommentare News folgen (öffnet im neuen Fenster)
Wie gefährlich sind KI-Programme wie ChatGPT? (Bild: Dado Ruvic/Reuters)
Wie gefährlich sind KI-Programme wie ChatGPT? Bild: Dado Ruvic/Reuters

Die aktuellen Entwicklungen bei neuen Sprachmodellen auf Basis künstlicher Intelligenz (KI) machen einmal mehr deutlich, wie schwierig sich die Regulierung von digitalen Themen erweisen kann. Als die EU-Kommission ihren Entwurf zur KI-Verordnung im April 2021 vorstellte, spielten Programme wie ChatGPT in der Debatte noch keine große Rolle. Doch nun stellt sich die Frage, ob die Chatbots ebenso wie eine automatische Gesichtserkennung als hochriskante Technik eingestuft werden.

Die Verhandlungen über die KI-Verordnung (engl. AI Act) sollten eigentlich in diesem Jahr in die entscheidende Phase treten. Die EU-Mitgliedstaaten haben im vergangenen Dezember bereits ihre Verhandlungsposition festgelegt . Das Europaparlament sollte in diesem Frühjahr über mögliche Änderungswünsche am Entwurf abstimmen.

Jetzt aber steht die schwierige Debatte ins Haus, ob und wie sich generative KI noch in die Regulierung einbinden lässt. Die zuständigen Verhandlungsführer, die Abgeordneten Brando Benifei und Dragoș Tudorache, schlugen Anfang Februar 2023 vor, Programme wie ChatGPT als riskant einzustufen.

Der Entwurf der EU-Kommission(öffnet im neuen Fenster) sieht in einem Anhang III bislang acht Bereiche sogenannter Hochrisiko-KI-Systeme vor. Diese betreffen unter anderem die "biometrische Identifizierung und Kategorisierung natürlicher Personen" oder "Verwaltung und Betrieb kritischer Infrastrukturen" .

Ist generative KI auch hochriskant?

Einem Bericht von Euractiv zufolge(öffnet im neuen Fenster) schlagen Benifei und Tudorache nun einen weiteren Bereich vor. Jeder KI-generierte Text, der fälschlicherweise für einen menschlichen Text gehalten werden könnte, gilt demnach als riskant. Es sei denn, er werde von einem Menschen überprüft und eine Person oder Organisation sei rechtlich dafür verantwortlich. Auch KI-generierte Deep Fakes sollen in die Hochrisikokategorie fallen, es sei denn, es handele sich um ein offensichtliches künstlerisches Werk.

Zu den hochriskanten Techniken sollen auch Apps wie Lensa gehören. Diese können Avatare auf der Grundlage des Gesichts einer Person erstellen. Der Begriff der biometrischen Identifizierung und Kategorisierung soll auf solche biometriebasierten Apps ausgedehnt werden.

Doch die Vorschläge von Benifei und Tudorache, die den Fraktionen der Sozialdemokraten und Liberalen angehören, stoßen auf Widerstand im Europaparlament.

Axel Voss warnt vor Überregulierung

So sagte der CDU-Politiker Axel Voss von der konservativen EVP-Fraktion laut Politico(öffnet im neuen Fenster) , dass die Änderungsvorschläge "zahlreiche Aktivitäten zu einem hohen Risiko machten, die überhaupt nicht riskant sind" . Voss ist als sogenannter Schattenberichterstatter seiner Fraktion an den Verhandlungen beteiligt.

Selbst die Definition von KI-Anwendungen sei unter den Abgeordneten noch umstritten, berichtete der Spiegel (Paywall)(öffnet im neuen Fenster) . So wolle die EVP die Definition eher eng fassen, um künftige Technologien nicht abzuwürgen. "Wir entwickeln schon jetzt nichts mehr, was die Welt interessiert" , sagte Voss dem Magazin. Sollte das so bleiben, "sind wir künftig nur noch eine Verbrauchermasse für amerikanische und chinesische Konzerne" .

Sollten Anwendungen wie Microsofts ChatGPT oder Googles Bard als hochriskant eingestuft werden, hätte dies höhere Auflagen für die Anbieter zur Folge. Dazu zählen unter anderem "angemessene Risikobewertungs- und Risikominderungssysteme" , eine "hohe Qualität der Datensätze, die in das System eingespeist werden, um Risiken und diskriminierende Ergebnisse so gering wie möglich zu halten" , sowie eine "Protokollierung der Vorgänge, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen" .

Lobbyschlacht hat schon begonnen

Kein Wunder, dass die Anbieter inzwischen in Brüssel schon heftig gegen solche Pläne lobbyieren. Das geht auch aus einer Studie (PDF)(öffnet im neuen Fenster) des Corporate Europe Observatory (CEO) hervor, das die Lobbyaktivitäten von Unternehmen auf EU-Ebene verfolgt. Der Untersuchung zufolge wurden die US-Konzerne alarmiert, nachdem die französische Ratspräsidentschaft im ersten Halbjahr 2022 das Thema auf der Ebene der EU-Staaten aufgebracht hatte.

Googles zuständiger Vize-Präsident Marian Croak habe auf einer öffentlichen Veranstaltung darauf gedrängt, das Gleichgewicht der Verantwortung zwischen Nutzern, Anwendern und Anbietern besser auszutarieren. Das bedeute, dass vor allem der Anwender dafür verantwortlich sein sollte, wenn mit den Programmen hochriskante Aufgaben erledigt würden. In einem Papier an die EU-Kommission habe Google anschließend dargelegt, dass sogenannte Allzweck-KI (engl. General Purpose AI/ GPAI) nicht per se als hochriskant eingestuft werden solle.

Microsoft schloss sich später den Forderungen Googles an. Im zweiten Halbjahr 2022 schrieb das Unternehmen einen Brief an die tschechische Ratspräsidentschaft und sah darin für die Allzweck-KI "keine Notwendigkeit für einen eigenen Bereich in der KI-Verordnung" . Mit dem Argument: "Ohne den Zweck dieses Allzweck-Werkzeugs zu kennen, gibt es keine Möglichkeit, die Anforderungen für hohe Risiken zu erfüllen."

Auch Start-ups unterzeichnen den Brief

Der CEO-Studie zufolge übernahmen auch Wirtschaftsverbände wie Business Europe und Digital Europa diese Argumentation. Auch der von Microsoft gegründete Verband BSA – The Software Alliance schloss sich der Position an und forderte im September 2022 die EU-Institutionen dazu auf, die jüngsten Vorschläge zur GPAI abzulehnen. Diese würden die KI-Entwicklung in Europa beeinflussen und Innovationen ausbremsen.

Obwohl eine schärfere Regulierung der Allzweck-KI vermutlich vor allem deren Anbieter in die Pflicht nehmen würde, sei es den IT-Konzernen gelungen, das Netzwerk Allied for Startups auf ihre Seite zu ziehen. Allerdings werde das Netzwerk unter anderem von Google, Apple, Microsoft, Amazon und Meta finanziell unterstützt.

Weniger erfolgreich waren die Lobbybemühungen hingegen bei der European Digital SME Alliance, die kleine und mittlere Digitalfirmen (SMEs) vertritt. Deren Generalsekretär Sebastiano Toffaletti empfahl seinen Mitgliedsunternehmen, den BSA-Brief nicht zu unterzeichnen. Sein Argument: Ein Verzicht auf die Einbeziehung von GPAI werde die Verpflichtungen der KI-Verordnung eher den europäischen SMEs aufbürden.

Ob und wie die Vorschläge von Benifei und Tudorache in die Position des Europaparlaments übernommen werden, ist derzeit unklar. Zudem ist offen, ob diese sich anschließend in den sogenannten Trilogverhandlungen mit Kommission und Mitgliedstaaten durchsetzen lassen.

US-Regierung unterstützt ihre Konzerne

Erschwerend kommt hinzu, dass auch die US-Regierung sich in einem eigenen Schreiben zu dem Thema an die Mitgliedstaaten gewandt hat. In dem sogenannten Non-Paper (PDF)(öffnet im neuen Fenster) vom September 2022 widmet sich ein eigener Absatz dem Thema. Darin heißt es: "Wir empfehlen, die Verantwortlichkeiten und die damit verbundene Haftung nach dem Gesetz, die für den ursprünglichen Hersteller einer Allzweck-KI gelten, von den Verantwortlichkeiten und der damit verbundenen Haftung der Nutzer einer solchen Allzweck-KI, die diese anschließend zur Entwicklung, Schulung und zum Einsatz von Hochrisiko-KI verwenden, zu unterscheiden."

Damit befindet sich die US-Regierung auf Linie mit ihren IT-Konzernen. Da die USA und die EU derzeit beispielsweise über Ausnahmen europäischer Hersteller beim Export von Elektroautos ringen , verfügen die USA über Hebel, um Druck auszuüben. Es wird sich daher noch zeigen, was die EU in Sachen Chatbots zu riskieren bereit ist.


Relevante Themen