KI-Verordnung: Hype um Chatbots bringt EU in die Bredouille
Die Verhandlungen über die KI-Verordnung der EU sind schon weit fortgeschritten. Doch nun wird über die Risiken von Chatbots gestritten.

Die aktuellen Entwicklungen bei neuen Sprachmodellen auf Basis künstlicher Intelligenz (KI) machen einmal mehr deutlich, wie schwierig sich die Regulierung von digitalen Themen erweisen kann. Als die EU-Kommission ihren Entwurf zur KI-Verordnung im April 2021 vorstellte, spielten Programme wie ChatGPT in der Debatte noch keine große Rolle. Doch nun stellt sich die Frage, ob die Chatbots ebenso wie eine automatische Gesichtserkennung als hochriskante Technik eingestuft werden.
- KI-Verordnung: Hype um Chatbots bringt EU in die Bredouille
- Axel Voss warnt vor Überregulierung
- Auch Start-ups unterzeichnen den Brief
Die Verhandlungen über die KI-Verordnung (engl. AI Act) sollten eigentlich in diesem Jahr in die entscheidende Phase treten. Die EU-Mitgliedstaaten haben im vergangenen Dezember bereits ihre Verhandlungsposition festgelegt. Das Europaparlament sollte in diesem Frühjahr über mögliche Änderungswünsche am Entwurf abstimmen.
Jetzt aber steht die schwierige Debatte ins Haus, ob und wie sich generative KI noch in die Regulierung einbinden lässt. Die zuständigen Verhandlungsführer, die Abgeordneten Brando Benifei und Dragoș Tudorache, schlugen Anfang Februar 2023 vor, Programme wie ChatGPT als riskant einzustufen.
Der Entwurf der EU-Kommission sieht in einem Anhang III bislang acht Bereiche sogenannter Hochrisiko-KI-Systeme vor. Diese betreffen unter anderem die "biometrische Identifizierung und Kategorisierung natürlicher Personen" oder "Verwaltung und Betrieb kritischer Infrastrukturen".
Ist generative KI auch hochriskant?
Einem Bericht von Euractiv zufolge schlagen Benifei und Tudorache nun einen weiteren Bereich vor. Jeder KI-generierte Text, der fälschlicherweise für einen menschlichen Text gehalten werden könnte, gilt demnach als riskant. Es sei denn, er werde von einem Menschen überprüft und eine Person oder Organisation sei rechtlich dafür verantwortlich. Auch KI-generierte Deep Fakes sollen in die Hochrisikokategorie fallen, es sei denn, es handele sich um ein offensichtliches künstlerisches Werk.
Zu den hochriskanten Techniken sollen auch Apps wie Lensa gehören. Diese können Avatare auf der Grundlage des Gesichts einer Person erstellen. Der Begriff der biometrischen Identifizierung und Kategorisierung soll auf solche biometriebasierten Apps ausgedehnt werden.
Doch die Vorschläge von Benifei und Tudorache, die den Fraktionen der Sozialdemokraten und Liberalen angehören, stoßen auf Widerstand im Europaparlament.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Axel Voss warnt vor Überregulierung |
Falschaussagen kannst Du auch bei Wikipedia nicht ausschliessen. Gehört deshalb...
Eine klassische europäische Vorgangsweise - man meint ein Problem zu erkennen und beginnt...
Kommentieren