SAP-Chef: SAP fühlt sich durch Verbote bei KI ausgebremst
SAP-Chef Christian Klein klagt über einengende Gesetze bei der KI-Entwicklung. Doch was ist eigentlich verboten und was beschänkt?
SAP-Chef Christian Klein fordert mehr Freiheit im Umgang mit künstlicher Intelligenz. "Wer von vornherein alles verbietet, bekommt keine Innovationen", sagte Klein dem Nachrichtenmagazin Focus. Erschwerend komme dazu, dass in der EU jedes Land seine eigenen Regeln schreibe. Harmonisierung würde da "ein nie erlebtes Tempo entfesseln", sagte der SAP-Chef.
"Klar benötigt die Technologie einen rechtlichen Rahmen. Aber hierzu braucht es Augenmaß und den Willen, uns Unternehmen auch mal machen zu lassen", so Klein weiter.
Der SAP-Chef zeigte Verständnis für die deutsche Politik, da es für ein Dreiparteienbündnis schwierig sei, Kompromisse zu finden. "Andererseits ist gerade die Digitalisierung zu wichtig fürs Land und seine Bürger, als dass das Thema nicht beherzt angegangen werden müsste", fügte Klein hinzu.
Doch was ist eigentlich verboten im Bereich KI?
Paul Lukowicz, Leiter des Forschungsbereichs Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), sagte der Tagesschau im Juni 2023: "KI ist allerdings auch in der Lage, Dinge zu tun, die wir grundsätzlich nicht wollen. Zum Beispiel bestimmte Überwachungstechniken wie das berühmte Social Scoring System, bei dem KI-Systeme angewendet werden, um das Verhalten von Menschen zu bewerten und zu schauen, ob sie sich so verhalten, wie der Staat das wollen würde. So etwas wollen wir grundsätzlich nicht. Da ist es richtig, dass man das gesetzlich einfach verbietet."
Verbote für KI-Systeme in der EU umfassen die Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen oder biometrischen Echtzeit-Fernidentifizierungssystemen, zum Beispiel Gesichtserkennung. Bei Letzterer gibt es jedoch Ausnahmen. Der EU AI Act soll im Jahr 2024 in Kraft treten.
Der Artifical Intelligence (AI) Act sei das wohl "wichtigste Gesetzgebungsvorhaben in dieser Legislaturperiode"des Europaparlaments, erklärte Dragos Tudorache, der Berichterstatter des Parlaments, wie Golem.de berichtete (g+).
Hohe Strafen, wenn Algorithmen ohne Kennzeichnung entscheiden
Der AI Act teilt KI-Systeme in Klassen mit einem "minimalen", "begrenzten", "hohen" oder "inakzeptablen" Risiko ein.
Auch Modelle, die Texte, Bilder, Videos oder Tondokumente erstellen und dabei den Eindruck erwecken, diese seien von Menschen produziert worden, stuft die Kommission als hochriskant ein. Wer derartige KI-Systeme nutzt, muss die entsprechenden Inhalte künftig als von einer Maschine erstellte Produkte kenntlich machen.
Ein sehr hohes Risiko sieht die EU-Kommission auch bei KI für die Medizin, Systemen für die Auswahl von Bewerbern um einen Arbeitsplatz oder für die Strafverfolgung sowie in Modellen von Lebensversicherungen und Banken, wenn diese damit die Bonität von Kunden bewerten, die einen Kredit aufnehmen möchten.
Anbieter von hochriskanten KI-Anwendungen müssen dokumentieren
Anbieter von hochriskanten KI-Anwendungen müssen dokumentieren, dass und wie sie geprüft haben, dass ihre Systeme die Rechte von Bürgern nicht verletzen. Diese sind von Anwendern der Algorithmen zudem darüber zu informieren, dass sich Entscheidungen, die sie betreffen, auf Analysen und Bewertungen einer künstlichen Intelligenz stützen.
Bei Verstößen sieht der AI Act Strafen von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Gewinns eines Unternehmens vor – je nachdem, welcher Betrag höher ist.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed










Doch, da hat man natürlich nachgeforscht. Es gibt auch mindestens ein Projekt, das die...
Kommentieren