Explainable KI: Wie erklären Menschen die Entscheidungen von Computern?

Je komplexer eine KI, desto schwerer können Menschen ihre Entscheidungen nachvollziehen. Das ängstigt viele. Doch künstliche Intelligenz ist keine Blackbox mehr.

Artikel von Florian Voglauer veröffentlicht am
Je komplexer die KI, desto schwerer können Menschen sie verstehen.
Je komplexer die KI, desto schwerer können Menschen sie verstehen. (Bild: Pixabay/Montage: Golem.de)

Die Wahrnehmung von künstlicher Intelligenz in der Öffentlichkeit und der Fachwelt könnte wohl nicht unterschiedlicher sein. Erstere stellt sich häufig apokalyptische Zustände vor, Letztere schreibt einfach wenige Zeilen Code und setzt so ein neuronales Netz auf, das in der Lage ist, beispielsweise bösartige Hirntumore zu klassifizieren.

Inhalt:
  1. Explainable KI: Wie erklären Menschen die Entscheidungen von Computern?
  2. Keine Erklärbarkeit ist auch keine Lösung
  3. KI-Entscheidungen erklären mit Lime und Shap
  4. KI-Modelle sind keine Blackbox mehr

Die Möglichkeiten der KI sind scheinbar unbegrenzt und für Fachleute sind einfache Anwendungen, soweit die Datenbasis von hoher Qualität ist, als Prototyp meist leicht umsetzbar. Bei diesen vielfältigen Einsatzgebieten stellt sich die Frage, wer noch wirklich versteht, was in so einem Netz passiert.

Von KI-Entscheidungen erwarten wir mehr als von menschlichen

Von künstlicher Intelligenz wird zunehmend Erklärbarkeit beziehungsweise Transparenz gefordert. Im ersten Moment ist dies verständlich, da gewisse Entscheidungen nachvollzogen werden sollten - etwa bei einem Unfall eines autonomen Fahrzeugs.

Es gibt aber auch eine andere Perspektive: Wir wissen auch nicht von jedem menschlichen Verursacher eines Verkehrsunfalls, warum er während einer Notsituation so gehandelt hat oder wie er in einer solchen Situation handeln würde. Was würden Sie tun, wenn Sie die Wahl hätten, in eine Gruppe älterer Menschen oder in ein Kind zu fahren - und es keine weitere Option gäbe (auch bekannt als Trolley-Problem)? Und hätten Sie in einer solchen Stresssituation überhaupt eine Wahl?

Von einem autonomen Auto verlangen wir allerdings klare Antworten und Begründungen, warum wie gehandelt wurde. Das ist auch gut so und sollte weiterhin so gehandhabt werden, aber der Vergleich von Mensch und Maschine ist trotzdem diskussionswürdig und soll an dieser Stelle bloß als Gedankenexperiment dienen.

Keine einfachen Wenn-Dann-Funktionen

Bei einem Algorithmus, der wie bei Spotify oder Youtube Vorschläge für die nächsten Songs oder Videos ausarbeitet, scheint es nicht die größte Priorität zu haben, nachvollziehen zu können, wie die Vorschläge zustande gekommen sind. Etwa bei den Gehirntumoren dringen wir mit modernen maschinellen Lernsystemen wie neuronalen Netzen jedoch immer mehr in sensible Bereiche vor.

Die Antworten auf Fragen wie "Warum hat eine KI diese Entscheidung getroffen?" oder "Welche Faktoren haben zu dieser Vorhersage geführt?" sind nicht nur für die Arbeit von Entwicklern interessant. In Zeiten, in denen die intelligente Datennutzung in allen Branchen und Lebensbereichen vertreten ist, sind sie auch ethisch und rechtlich notwendig.

Doch wir stehen vor einem Problem: Natürlich können verschiedene Interessengruppen fordern, Algorithmen transparenter zu gestalten, doch diese sind schon lange keine einfachen Wenn-Dann-Funktionen beziehungsweise regelbasierten Systeme mehr. Ihre Entscheidungen können nicht immer einfach herausgelesen werden.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Keine Erklärbarkeit ist auch keine Lösung 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


sambache 29. Mai 2022

Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...

Oktavian 29. Mai 2022

Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...

Flexy 28. Mai 2022

Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...

Flexy 28. Mai 2022

Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...



Aktuell auf der Startseite von Golem.de
Vermona
Zufall und Synthesizer

Wie aus einem großen DDR-Staatsbetrieb ein erfolgreicher kleiner Hersteller von analogen Synthies wurde.
Von Martin Wolf

Vermona: Zufall und Synthesizer
Artikel
  1. Warnmeldungen: Rund alle 36 Stunden ein Alarm per Cell Broadcast
    Warnmeldungen
    Rund alle 36 Stunden ein Alarm per Cell Broadcast

    Zwischenfazit nach 100 Tagen: Bislang wurden bundesweit 77 Alarmmeldungen per Cell Broadcast übertragen.

  2. Digitalisierung: Behörde bekommt weniger Beschwerden über Faxwerbung
    Digitalisierung
    Behörde bekommt weniger Beschwerden über Faxwerbung

    Naht allmählich das Ende der Technologie? Die Bundesnetzagentur hat 2022 viel weniger Beschwerden über Fax-Spam bekommen als im Jahr zuvor.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • SanDisk Ultra NVMe 1 TB ab 39,99€ • Samsung 980 1 TB 45€ • MindStar: be quiet! Pure Base 500 69€, MSI MPG B550 Gaming Plus 99,90€, Palit RTX 4070 GamingPro 666€, AMD Ryzen 9 7950X3D 699€ • Corsair DDR4-3600 16 GB 39,90€ • KFA2 RTX 3060 Ti 329,99€ • Kingston Fury 2 TB 129,91€ [Werbung]
    •  /