Abo
  • Services:

Informationsfreiheitsbeauftragte: Algorithmen für Behörden müssen diskriminierungsfrei sein

Informationsfreiheitsbeauftragte von Bund und Ländern drängen auf eine stärkere Kontrolle von Algorithmen und künstlicher Intelligenz (KI) in der Verwaltung. An die Auswahl und die Entwicklung solcher Verfahren müssten hohe Anforderungen gestellt werden.

Artikel von Stefan Krempl veröffentlicht am
Entscheidungen werden in Ämtern zunehmend ohne menschliche Beteiligung vorbereitet oder getroffen.
Entscheidungen werden in Ämtern zunehmend ohne menschliche Beteiligung vorbereitet oder getroffen. (Bild: Pixnio.com)

Der Trend zum Einsatz von Algorithmen und Formen künstlicher Intelligenz macht auch vor Amtsstuben nicht halt. Zunehmend werden Entscheidungen der öffentlichen Verwaltung durch automatisierte Datenverarbeitungsvorgänge mit Hilfe einschlägiger "smarter" Verfahren vorbereitet oder sogar getroffen. Beispiele sind Berechtigungs- oder Stimmigkeitsprüfungen im Finanzamt, bei Jobagenturen oder der Studienplatzvergabe über Prozesse zur Planung von Verkehrswegen bis hin zur Kriminalitätsvorhersage per Predictive Policing.

Stellenmarkt
  1. Grand City Property, Berlin
  2. ENERCON GmbH, Aurich, Bremen

Den Informationsfreiheitsbeauftragten des Bundes sowie der Länder Baden-Württemberg, Berlin, Bremen, Mecklenburg-Vorpommern, Rheinland-Pfalz, Sachsen-Anhalt, Schleswig-Holstein und Thüringen ist dieser Kurs nicht ganz geheuer. Sie haben daher Mitte Oktober bei ihrem Treffen in Ulm ein Positionspapier beschlossen, mit dem sie eine stärkere Transparenz bei der Implementierung von Algorithmen in der Verwaltung im Interesse eines "gelebten Grundrechtsschutzes" als unabdingbar bezeichnen.

Automatisierte Analyseinstrumente und KI könnten zwar Effizienzsteigerungen bewirken und Auswertungen großer Datenmengen erleichtern beziehungsweise überhaupt erst ermöglichen, schreiben die unabhängigen Kontrolleure. Die Verwaltung trage aber eine hohe Verantwortung, derlei Werkzeuge nur rechtmäßig zu verwenden. Sie sei dabei den Grundwerten "in besonderer Weise verpflichtet", um das Vertrauen der Bürger zu erhalten. Die Experten unterstreichen: "Elementar sind in diesem Zusammenhang die Beachtung der Menschenwürde und des Diskriminierungsverbots". Ähnlich hatte sich zuvor Ex-Bundesjustizminister Heiko Maas (SPD) geäußert.

Entscheidungen müssen nachvollziehbar sein

Ein großes Problem ist laut der Analyse in diesem Zusammenhang, dass Algorithmen und KI derzeit "meist völlig intransparent funktionieren". Mit welchen Kriterien und Wertvorstellungen sie "gefüttert" würden und inwieweit die erzielten Ergebnisse dem Grundsatz der Gesetzmäßigkeit entsprächen, könnten die Betroffenen in aller Regel nicht erkennen. Die genutzten Verfahren müssten daher durchsichtig gemacht werden, damit sowohl die Bürger als auch die Verwaltungsmitarbeiter selbst das Zustandekommen der Entscheidungen nachvollziehen könnten. Errechnete Ergebnisse sollten "vorhersehbar und nachvollziehbar sein", gleichartige Eingaben in ein System zu gleichartigen Ausgaben führen.

Die beteiligten Informationsfreiheitsbeauftragten fordern daher den Bundes- sowie die Landesgesetzgeber auf, "öffentliche Stellen noch konsequenter als bislang zu einem transparenten, verantwortungsvollen Einsatz von Algorithmen und KI-Verfahren zu verpflichten". Konkret müssten Ämter prüfen, inwieweit derlei Operationen überhaupt grundrechtskonform implementiert werden könnten. Ergäben sich dabei Zweifel, dass die Technik ausreichend nachvollzieh-, überprüf- und beherrschbar sei, dürfe sie nicht verwendet werden.

Öffentliche Stellen bräuchten aussagekräftige, umfassende und allgemein verständliche Informationen rund um die eigenen Datenverarbeitungen, heißt es in dem Dokument. Bekannt sein müssten etwa die Kategorien der Ein- und Ausgabedaten des Verfahrens, die darin enthaltene Logik insbesondere zur Gewichtung der eingespielten Werte sowie die Konfiguration des Systems. Erkennbar werden sollten auf diese Weise die Tragweite der ausgelösten Entscheidungen und die möglichen Auswirkungen. Soweit rechtlich möglich, seien all diese Parameter auch zu veröffentlichen. Ähnliche Vorschriften hat der Gesetzgeber bisher allenfalls für das Scoring zur Bonitätsprüfung verabschiedet.

Plädoyer für "Transparency by Design"

Die Transparenzanforderungen müssten schon bei der Programmierung in die Technik eingebaut werden, plädieren die auch für den Datenschutz zuständigen Beauftragten für das Prinzip "Transparency by Design". Die berechneten Ausgabedaten sollten dabei jeweils um die Informationen ergänzt werden, welcher Input oder welche Bewertungen besonders relevant für das Ergebnis gewesen seien. Entsprechende Evaluierungswerkzeuge seien vor allem bei selbstlernenden Systemen geboten.

Die Abläufe und wesentlichen Parameter eines algorithmischen Verfahrens sind den Prüfern zufolge unerlässlich, um dessen Sicherheit und Vertrauenswürdigkeit zu schützen und etwaige Manipulationen zuverlässig erkennen zu können. Einschlägige Maßnahmen müssten regelmäßig evaluiert und einer Qualitätskontrolle unterzogen werden. Um eine umfassende Überprüfbarkeit zu gewährleisten, sollten den jeweiligen öffentlichen Stellen auch der Quelltext und gegebenenfalls andere relevante Informationen zur Verfügung gestellt und ebenfalls möglichst publiziert werden.

Für einfache Widerspruchsmöglichkeiten oder sogar Rückabwicklungen automatisiert getroffener Entscheidungen machen sich die Kontrolleure ebenfalls stark. Algorithmen dürfen dem Papier nach "unter keinen Umständen eine diskriminierende Wirkung entfalten". Daher müssten hohe Anforderungen etwa an die Auswahl von Trainingsdaten oder Bewertungsfunktionen gestellt werden. Bei hohen Risiken für die Bürger sei vorab eine Folgenabschätzung durchzuführen, in besonders sensiblen Anwendungsbereichen eine Abnahme der Technik durch eine Art "Algorithmen-TÜV" zu verlangen.

New York vorne dran

Die Verwaltung sehen die Beauftragten so insgesamt als Vorreiter bei transparenten und kontrollierbaren KI-Systemen. Ihre Initiative geht aber deutlich weiter: Sie sehen den Gesetzgeber letztlich dazu angehalten, "entsprechende Vorgaben auch für die Privatwirtschaft zu normieren". Die Bundesregierung will auf diesem Sektor aber zunächst die Ergebnisse der von ihr beziehungsweise dem Bundestag eingesetzten Kommissionen für Datenethik sowie KI abwarten.

Andere Regionen sind da schon weiter. So hat etwa der Stadtrat von New York voriges Jahr ein Gesetz verabschiedet, mit dem die automatisierte Entscheidungsfindung in Behörden zurechnungsfähiger werden soll. Die US-Metropole soll demnach nur noch auf diskriminierungsfreie Algorithmen in der Verwaltung setzen.



Anzeige
Top-Angebote

ibito 23. Okt 2018 / Themenstart

Thema Algorithmus - ich würde mit Ibikli Code die Daten verschlüsseln. Beispiel...

azeu 22. Okt 2018 / Themenstart

Der Algorithmus ist nicht das Problem. Das Problem ist entweder das womit ich diesen...

Iruwen 22. Okt 2018 / Themenstart

Vorzugsweise kein Schwarzer, außer es geht um Gebäudereinigung, Müllabfuhr oder...

Iruwen 22. Okt 2018 / Themenstart

https://de.wikipedia.org/wiki/T%C3%B6tungsrate_nach_L%C3%A4ndern Irgendwas läuft in...

aLpenbog 22. Okt 2018 / Themenstart

Wir sollen entsprechende Netze also mit falschen Daten füttern, um ein gewünschtes...

Kommentieren


Folgen Sie uns
       


Intel Core i9-9900K - Test

Der Core i9-9900K ist ein Octacore-Prozessor im 14-nm-Verfahren. Die Platine und der Chip darunter sind recht dick, was wohl der hohen Leistungsaufnahme geschuldet ist. Erstmals seit 2011 verlötet Intel den Metalldeckel wieder, anstatt Wärmeleitpaste zu verwenden.

Intel Core i9-9900K - Test Video aufrufen
Dark Rock Pro TR4 im Test: Be Quiet macht den Threadripper still
Dark Rock Pro TR4 im Test
Be Quiet macht den Threadripper still

Mit dem Dark Rock Pro TR4 hat Be Quiet einen tiefschwarzen CPU-Kühler für AMDs Threadripper im Angebot. Er überzeugt durch Leistung und den leisen Betrieb, bei Montage und Speicherkompatiblität liegt die Konkurrenz vorne. Die ist aber optisch teils deutlich weniger zurückhaltend.
Ein Test von Marc Sauter

  1. Dark Rock Pro TR4 Be Quiets schwarzer Doppelturm kühlt 32 Threadripper-Kerne

Battlefield 5 im Test: Klasse Kämpfe unter Freunden
Battlefield 5 im Test
Klasse Kämpfe unter Freunden

Umgebungen und Szenario erinnern an frühere Serienteile, das Sammeln von Ausrüstung motiviert langfristig, viele Gebiete sind zerstörbar: Battlefield 5 setzt auf Multiplayermatches für erfahrene Squads. Wer lange genug kämpft, findet schon vor der Erweiterung Firestorm ein bisschen Battle Royale.

  1. Dice Raytracing-Systemanforderungen für Battlefield 5 erschienen
  2. Dice Zusatzinhalte für Battlefield 5 vorgestellt
  3. Battle Royale Battlefield 5 schickt 64 Spieler in Feuerring

Interview Alienware: Keiner baut dir einen besseren Gaming-PC als du selbst!
Interview Alienware
"Keiner baut dir einen besseren Gaming-PC als du selbst!"

Selbst bauen oder Komplettsystem kaufen, die Zukunft von Raytracing und was E-Sport-Profis über Hardware denken: Golem.de hat im Interview mit Frank Azor, dem Chef von Alienware, über PC-Gaming gesprochen.
Von Peter Steinlechner

  1. Dell Alienware M15 wird schlanker und läuft 17 Stunden
  2. Dell Intel Core i9 in neuen Alienware-Laptops ab Werk übertaktet

    •  /