Explainable AI: Verstehen, wie Algorithmen entscheiden

KI-Modelle treffen heute tagtäglich Entscheidungen mit weitreichenden Konsequenzen. Ob bei der Kreditvergabe, bei der Schadensregulierung oder bei der Auswahl von Bewerbern – überall werden komplexe Modelle eingesetzt, die für die Entscheidungsfindung herangezogen werden. Wie die Programme zu ihren Ergebnissen kommen, bleibt allerdings in der Regel verborgen. Und nicht nur das: Viele moderne KI-Modelle sind so vielschichtig, dass ihre inneren Abläufe selbst von Fachleuten nicht mehr nachvollzogen werden können. Sie erscheinen als Black Boxes, die Eingaben in Entscheidungen verwandeln, ohne dass der Prozess im Detail einsehbar ist.
Für viele Anwendungen mag das unproblematisch sein – ein Empfehlungssystem im Onlineshop muss nicht in allen Einzelheiten erklärt werden. In sensiblen Bereichen jedoch, in denen über Kredite, Versicherungen oder medizinische Behandlungen entschieden wird, ist Intransparenz ein erhebliches Risiko für Fairness, Akzeptanz und Rechtskonformität. Hier sollten die Modelle offenlegen können, wie sie zu ihren Entscheidungen gekommen sind – und hier setzt Explainable KI (XAI) an.