AI Act geleakt: So will die EU die Künstliche Intelligenz regulieren

Die Verhandlungspartner der EU haben offenbar einen finalen Text der Verordnung zur Künstlichen Intelligenz (KI) vorgelegt. Auf 892 Seiten enthält das Dokument (PDF)(öffnet im neuen Fenster) , das der Journalist Luca Bertuzzi auf X veröffentlichte(öffnet im neuen Fenster) , die gemeinsame Position von Europaparlament und EU-Mitgliedstaaten. Der Text muss jedoch noch formal von den Verhandlungspartnern akzeptiert werden. Welche Vorgaben sind in dem Text für KI-Systeme im Allgemeinen und Angebote wie ChatGPT nun enthalten?
Die vorläufige Einigung war Mitte Dezember 2023 erzielt worden . Jedoch stand der genaue Wortlaut der 85 Artikel, 89 Erwägungsgründe und neun Anhänge noch nicht fest. In den vergangenen Wochen zeigte sich aber bereits, dass sich die Mitgliedstaaten bei der Zulässigkeit von automatischer Gesichtserkennung weitgehend durchsetzen konnten. Die geleakte Textversion enthält daher die Positionen, die im vergangenen Dezember und Mitte Januar bekannt geworden waren.
Automatische Gesichtserkennung zulässig
Demnach sollen solche Systeme laut Artikel 5 zur "Echtzeit-Fernidentifikation" zu bestimmten Zwecken erlaubt werden, etwa für die "gezielte Suche nach bestimmten potenziellen Opfern von Straftaten oder nach vermissten Kindern" . Außerdem soll nach Verdächtigen und Straftätern gesucht werden dürfen. Der vorliegende Text sieht zudem kaum Einschränkungen für die nachträgliche biometrische Fernidentifikation vor .
Die Verordnung enthält umfangreiche Regelungen zu universellen KI-Systemen (General Purpose AI/GPAI). Jedoch findet sich der Begriff "Basismodelle" ( "foundation models" ), die das Parlament in einem eigenen Artikel 28b regeln wollte, nicht mehr wieder. Stattdessen enthält die Verordnung nun einen eigenen Abschnitt VIIIA, der solche universellen Systeme reguliert. Diese betreffen auch Chatbots wie ChatGPT oder Bard.
Kumulativer Rechenaufwand als Kriterium
Generell verfolgt die EU mit der KI-Verordnung das Konzept, nicht eine bestimmte Technik als solche, sondern nur bestimmte Anwendungen zu regulieren oder zu verbieten. Einsatzgebiete wie eine automatisierte biometrische Gesichtserkennung oder Social-Scoring-Systeme sollen stark eingeschränkt oder verboten werden. Auch sollen EU-Bürger nicht Entscheidungen unterworfen werden, die ausschließlich auf Basis maschineller Verfahren beruhen. Schäden durch KI-Anwendungen können "materiell oder immateriell sein, einschließlich physischer, psychologischer, gesellschaftlicher oder wirtschaftlicher Schäden" , heißt es in Erwägungsgrund 4.
Daher definiert der Text bestimmte Kriterien, nach denen GPAI-Anwendungen als "systemisches Risiko" eingestuft werden können. Demnach gilt eine solche Anwendung als riskant, wenn sie über eine hohe Leistungsfähigkeit verfügt, "die auf der Grundlage geeigneter technischer Instrumente und Verfahren, einschließlich Indikatoren und Benchmarks, bewertet wird" . Das ist laut Artikel 52a der Verordnung der Fall, wenn der kumulative Rechenaufwand für das Training des Modells mehr als 10 25 Gleitkommaoperationen (Flops) beträgt.
Das bedeutet jedoch nicht, dass sämtliche KI-Modelle, die diesen Wert erreichen, als riskant eingestuft werden. Vielmehr können die Anbieter selbst "ausreichend begründete Argumente vorlegen, um nachzuweisen, dass das KI-Modell für allgemeine Zwecke aufgrund seiner besonderen Merkmale ausnahmsweise keine systemischen Risiken birgt" . Die EU-Kommission soll diese Einschätzung dann prüfen und könnte diese im Zweifelsfall ablehnen. Die Kommission soll zudem eine Liste der riskanten GPAI-Modelle veröffentlichen und aktuell halten.
In Artikel 52c legt die Verordnung die Anforderungen an die Anbieter dieser Modelle fest.
Technische Dokumentation zu Trainingsverfahren
Diese gelten unabhängig davon, ob das Modell als riskant eingestuft wurde. Demnach müssen die Anbieter eine technische Dokumentation des Modells veröffentlichen, die auch die Trainings- und Testverfahren enthält. Zudem müssen sie "eine hinreichend detaillierte Zusammenfassung über die für das Training des KI-Modells" verwendeten Inhalte veröffentlichen. Ebenfalls müssen sie sich Vorgaben setzen, um den Schutz der Urheberrechte in der EU einzuhalten.
Anbieter hochriskanter GPAI-Systeme müssen laut Artikel 52d noch zusätzliche Vorkehrungen treffen. Demnach sind sie unter anderem verpflichtet, "eine Modellevaluierung nach standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchzuführen, einschließlich der Durchführung und Dokumentation von Angriffsversuchen auf das Modell (adversarial testing) im Hinblick auf die Identifizierung und Minderung von Systemrisiken."
Die Verordnung sieht die Einrichtung einer KI-Behörde in der EU vor. Diese soll unter anderem die Festlegung von Richtlinien für den Einsatz der hochriskanten Systeme "ermutigen und erleichtern" .
Ausnahmen für Wissenschaft und industrielle Forschung
Weitgehend übernommen haben die Verhandlungspartner die Vorschläge des Europaparlaments und der Mitgliedstaaten zur Einrichtung von Reallaboren (engl. Sandboxes). Darüber hinaus heißt es in Erwägungsgrund 12c ausdrücklich, dass die Verordnung nicht für KI-Systeme gilt, "die speziell für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden" . Ebenfalls soll sichergestellt werden, "dass die Verordnung wissenschaftliche Forschungs- und Entwicklungstätigkeiten zu KI-Systemen oder -Modellen vor dem Inverkehrbringen oder der Inbetriebnahme nicht anderweitig beeinträchtigt" .
Entsprechende Ausnahmen soll es auch für die Industrie geben. "Was die produktorientierte Forschung, Erprobung und Entwicklung von KI-Systemen oder -Modellen anbelangt, so sollten die Bestimmungen dieser Verordnung ebenfalls nicht gelten, bevor diese Systeme und Modelle in Betrieb genommen oder in Verkehr gebracht werden" , heißt es weiter.
Widerstand gegen die Einigung gibt es aber noch sowohl auf Seiten der Mitgliedstaaten als auch im Europaparlament.
Kann Frankreich den AI Act noch stoppen?
Vor allem die Vereinbarungen zur Gesichtserkennung stoßen auf scharfe Kritik bei EU-Abgeordneten. "Mit diesem KI-Gesetz will die EU China offenbar nicht nur technologisch, sondern auch innenpolitisch nacheifern" , sagte der Piratenpolitiker Patrick Breyer und fügte hinzu: "Mit diesen Regeln droht die Gesichtserkennung, die in den USA immer wieder zu falschen Festnahmen führt, zu einem Standardinstrument auch in Europa zu werden."
Seiner Ansicht nach wird sogar einer permanenten Gesichtsüberwachung in Echtzeit "Tür und Tor geöffnet" . Mit der Begründung "Personenfahndung" könne der öffentliche Raum in Europa flächendeckend und permanent unter biometrische Massenüberwachung gestellt werden. "Dieses Gesetz legitimiert und normalisiert eine Kultur des Misstrauens. Es führt Europa in eine dystopische Zukunft eines misstrauischen High-Tech-Überwachungsstaats nach chinesischem Vorbild" , kritisierte Breyer. Die FDP-Abgeordnete Svenja Hahn sieht in dem Text "eine Bedrohung für Bürgerrechte" .
Frankreich sucht Sperrminorität
Doch nicht nur im Parlament, auch in den Mitgliedstaaten gibt es Widerstand gegen die Einigung. So versuche Frankreich weiterhin, mit anderen Mitgliedstaaten eine Sperrminorität zu bilden, um eine Zustimmung im Ministerrat zu blockieren, schreibt Bertuzzi(öffnet im neuen Fenster) . Ebenfalls versuche das Land, eine für den 2. Februar 2024 vorgesehene Abstimmung in dem zuständigen Ministerratsgremium zu verzögern, um noch Zugeständnisse zu erreichen.
Frankreichs Staatspräsident Emmanuel Macron gehen die Auflagen für KI-Firmen zu weit(öffnet im neuen Fenster) . Er befürchtet Wettbewerbsnachteile für Start-ups wie Mistral im Vergleich zu US-amerikanischen und chinesischen Konkurrenz.
Sollte Frankreich keine Sperrminorität organisieren können, dürfte der Ministerrat den Text jedoch ohne weitergehende Änderung bestätigen. Inwieweit das Europaparlament der KI-Verordnung noch die Zustimmung verweigern könnte, ist unklar. Da im Juni 2024 ein neues Parlament gewählt wird, wäre die gesamte KI-Regulierung damit vorerst gescheitert. Daher ist der Druck auf die Abgeordneten groß, der nun getroffenen Einigung zuzustimmen.



