Explainable KI: Wie erklären Menschen die Entscheidungen von Computern?
Je komplexer eine KI, desto schwerer können Menschen ihre Entscheidungen nachvollziehen. Das ängstigt viele. Doch künstliche Intelligenz ist keine Blackbox mehr.

Die Wahrnehmung von künstlicher Intelligenz in der Öffentlichkeit und der Fachwelt könnte wohl nicht unterschiedlicher sein. Erstere stellt sich häufig apokalyptische Zustände vor, Letztere schreibt einfach wenige Zeilen Code und setzt so ein neuronales Netz auf, das in der Lage ist, beispielsweise bösartige Hirntumore zu klassifizieren.
- Explainable KI: Wie erklären Menschen die Entscheidungen von Computern?
- Keine Erklärbarkeit ist auch keine Lösung
- KI-Entscheidungen erklären mit Lime und Shap
- KI-Modelle sind keine Blackbox mehr
Die Möglichkeiten der KI sind scheinbar unbegrenzt und für Fachleute sind einfache Anwendungen, soweit die Datenbasis von hoher Qualität ist, als Prototyp meist leicht umsetzbar. Bei diesen vielfältigen Einsatzgebieten stellt sich die Frage, wer noch wirklich versteht, was in so einem Netz passiert.
Von KI-Entscheidungen erwarten wir mehr als von menschlichen
Von künstlicher Intelligenz wird zunehmend Erklärbarkeit beziehungsweise Transparenz gefordert. Im ersten Moment ist dies verständlich, da gewisse Entscheidungen nachvollzogen werden sollten - etwa bei einem Unfall eines autonomen Fahrzeugs.
Es gibt aber auch eine andere Perspektive: Wir wissen auch nicht von jedem menschlichen Verursacher eines Verkehrsunfalls, warum er während einer Notsituation so gehandelt hat oder wie er in einer solchen Situation handeln würde. Was würden Sie tun, wenn Sie die Wahl hätten, in eine Gruppe älterer Menschen oder in ein Kind zu fahren - und es keine weitere Option gäbe (auch bekannt als Trolley-Problem)? Und hätten Sie in einer solchen Stresssituation überhaupt eine Wahl?
Von einem autonomen Auto verlangen wir allerdings klare Antworten und Begründungen, warum wie gehandelt wurde. Das ist auch gut so und sollte weiterhin so gehandhabt werden, aber der Vergleich von Mensch und Maschine ist trotzdem diskussionswürdig und soll an dieser Stelle bloß als Gedankenexperiment dienen.
Keine einfachen Wenn-Dann-Funktionen
Bei einem Algorithmus, der wie bei Spotify oder Youtube Vorschläge für die nächsten Songs oder Videos ausarbeitet, scheint es nicht die größte Priorität zu haben, nachvollziehen zu können, wie die Vorschläge zustande gekommen sind. Etwa bei den Gehirntumoren dringen wir mit modernen maschinellen Lernsystemen wie neuronalen Netzen jedoch immer mehr in sensible Bereiche vor.
Die Antworten auf Fragen wie "Warum hat eine KI diese Entscheidung getroffen?" oder "Welche Faktoren haben zu dieser Vorhersage geführt?" sind nicht nur für die Arbeit von Entwicklern interessant. In Zeiten, in denen die intelligente Datennutzung in allen Branchen und Lebensbereichen vertreten ist, sind sie auch ethisch und rechtlich notwendig.
Doch wir stehen vor einem Problem: Natürlich können verschiedene Interessengruppen fordern, Algorithmen transparenter zu gestalten, doch diese sind schon lange keine einfachen Wenn-Dann-Funktionen beziehungsweise regelbasierten Systeme mehr. Ihre Entscheidungen können nicht immer einfach herausgelesen werden.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Keine Erklärbarkeit ist auch keine Lösung |
Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...
Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...
Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...
Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...