KI-Kommission des Bundestags: "Lesen Sie den Bericht!"
Mehr als zwei Jahre lang hat die Enquete-Kommission des Bundestags über Künstliche Intelligenz diskutiert. Das Ergebnis kann sich durchaus sehen lassen.

"KI muss dem Menschen dienen, muss ein Werkzeug sein, ein Hilfsmittel", sagt Marc Biadacz, Arbeitsmarktexperte der Union. Als letzter Redner der heutigen Aussprache des Bundestags zum Abschlussbericht der 2018 eingesetzten Bundestagsenquete-Kommission zur Künstlichen Intelligenz (KI) brachte der CDU-Politiker den gemeinsamen Nenner aller Parteien in der KI-Debatte auf den Punkt: "Der Mensch steht im Mittelpunkt." Die Bundesregierung hatte bereits in ihrer KI-Strategie das Einsatzziel des Gemeinwohls betont.
- KI-Kommission des Bundestags: "Lesen Sie den Bericht!"
- Datenhoheit als Voraussetzung von KI-Anwendungen
- KI-Forschung lenken
Ebenfalls einig waren sich alle, dass nach zwei Jahren Beratung in der Enquete-Kommission mit dem 800-seitigen Abschlussbericht (PDF) die Arbeit nun erst beginne. Die Vorsitzende der KI-Enquete, Daniela Kolbe (SPD), appellierte an alle Abgeordnete: "Lesen Sie den Bericht und lassen Sie uns ihn gemeinsam umsetzen!" Zu den Schwerpunktthemen im Bericht wie auch in der Debatte gehören die Frage der Daten-Souveränität, der Risikofolgenabschätzung hinsichtlich Diskriminierung durch Daten-Bias und Informationsmanipulation sowie die ökologische Nachhaltigkeit von KI-Systemen und -Anwendungen.
Konkurrenzfähig in Europa bleiben
Weitgehend einig zeigten sich die Abgeordneten in der Auffassung, dass KI-Entwicklungen in Deutschland beziehungsweise Europa forciert werden müssten, um den auf mehr oder weniger ungebremster Datensammelei basierenden KI-Entwicklungen in den USA sowie in China ein europäisches Pendant gegenüberstellen zu können. Insbesondere die AfD legte darauf Wert. Ihr Abgeordneter Peter Felser sagte: "Von den Chancen wird nicht viel übrigbleiben, wenn es uns in Europa nicht gelingt, den Status einer digitalen Kolonie abzustreifen." Man müsse eigene konkurrenzfähige Software und Hardware entwickeln.
Bis auf die Linke stimmten alle Bundestagsfraktionen dem Abschlussbericht zu. Die Linke enthielt sich, obgleich zahlreiche Vorschläge von ihr in den Bericht Eingang gefunden hatten. Petra Sitte von der Linken zeigte sich enttäuscht darüber, dass die Enquete kein sofortiges Verbot, sondern lediglich eine Ächtung autonomer Waffensysteme empfehle. Sie sah besonders großes Konfliktpotenzial in den Arbeitsgruppen der Enquete auch bei der Frage, ob eine "ungebremste Wachstumsideologie" die Ungleichheiten von Macht weiter vertiefe. Auch die Zuordnung verschiedener KI-Anwendungen zu Risikoklassen hätte aus ihrer Sicht intensiver bearbeitet werden können.
Keine Mehrheit für Algorithmen-TÜV
Für einen Algorithmen-TÜV, wie ihn die SPD 2017 gefordert hatte, fand sich in der Enquete keine Mehrheit. Die CDU-Abgeordnete Nadine Schön betonte, dass man konkrete Anwendungen in den Kontext setzen müsse und keine abstrakten Risikoklassen definieren solle. Elvan Korkmaz-Emre betonte, dass der Gesetzgeber die Vorgaben mache und nicht die Technik. Entsprechend müsse es risikospezifische Regelungen geben, wobei es einen Unterschied mache, "ob wir über Instagram-Filter oder autonome Waffensysteme reden." Der Einsatz müsse gleichwohl transparent erfolgen.
Die KI-Kommission weist in ihrem Abschlussbericht darauf hin, dass KI-Systeme gezielt genutzt werden können, um gesellschaftlichen Fortschritt wie etwa weniger Diskriminierung, mehr Chancengerechtigkeit und bessere Arbeitsbedingungen zu unterstützen. Hierfür müssten solche Ansätze aber auch gezielt gefördert, ausgebaut und umgesetzt werden. Die Enquete empfiehlt, bereits bestehende Forschungserkenntnisse zur Diskriminierungserkennung und -vermeidung in den Software-Entwicklungsalltag verstärkt einzubringen. Immer wieder fallen KI-Anwendungen durch diskriminierende Ergebnisse auf, die auch unter dem Stichwort Daten-Bias diskutiert werden.
Die Enquete fordert, dass Betroffene in die Lage versetzt werden sollen, sich gegen die Diskriminierung durch KI-Anwendungen zu wehren. Voraussetzung dafür wäre ein Anspruch auf Transparenz, Nachvollziehbarkeit und Erklärbarkeit von KI-Entscheidungen, um Gerichten eine Überprüfung der automatisierten Entscheidungen zu ermöglichen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Datenhoheit als Voraussetzung von KI-Anwendungen |
...hast du den schon ernsthaft etwas mit neuronalen Netzen gebaut?
Ja, im Vergleich zu anderen Ländern sitzen bei uns immer Sonntagsfahrer am Steuer und...