Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Explainable AI:
Verstehen, wie Algorithmen entscheiden

Erklärbare KI zeigt, wie Ergebnisse zustande kommen, deckt mögliche Verzerrungen auf und stärkt damit die Akzeptanz und Rechtssicherheit von KI-Modellen.
/ Klaus Manhart
2 Kommentare News folgen (öffnet im neuen Fenster)
Explainable AI wirft einen Blick in die Blackbox KI. (Bild: alleksana/Pexels)
Explainable AI wirft einen Blick in die Blackbox KI. Bild: alleksana/Pexels

KI-Modelle treffen heute tagtäglich Entscheidungen mit weitreichenden Konsequenzen. Ob bei der Kreditvergabe, bei der Schadensregulierung oder bei der Auswahl von Bewerbern – überall werden komplexe Modelle eingesetzt, die für die Entscheidungsfindung herangezogen werden. Wie die Programme zu ihren Ergebnissen kommen, bleibt allerdings in der Regel verborgen. Und nicht nur das: Viele moderne KI-Modelle sind so vielschichtig, dass ihre inneren Abläufe selbst von Fachleuten nicht mehr nachvollzogen werden können. Sie erscheinen als Black Boxes, die Eingaben in Entscheidungen verwandeln, ohne dass der Prozess im Detail einsehbar ist.

Für viele Anwendungen mag das unproblematisch sein – ein Empfehlungssystem im Onlineshop muss nicht in allen Einzelheiten erklärt werden. In sensiblen Bereichen jedoch, in denen über Kredite, Versicherungen oder medizinische Behandlungen entschieden wird, ist Intransparenz ein erhebliches Risiko für Fairness, Akzeptanz und Rechtskonformität. Hier sollten die Modelle offenlegen können, wie sie zu ihren Entscheidungen gekommen sind – und hier setzt Explainable KI (XAI) an.

Golem Plus Artikel