Künstliche Intelligenz: Wie erklären Menschen die Entscheidungen von Computern?

Je komplexer eine KI, desto schwerer können Menschen ihre Entscheidungen nachvollziehen. Das ängstigt viele. Doch künstliche Intelligenz ist keine Blackbox mehr.

Artikel von Florian Voglauer veröffentlicht am
Je komplexer die KI, desto schwerer können Menschen sie verstehen.
Je komplexer die KI, desto schwerer können Menschen sie verstehen. (Bild: Pixabay/Montage: Golem.de)

Die Wahrnehmung von künstlicher Intelligenz in der Öffentlichkeit und der Fachwelt könnte wohl nicht unterschiedlicher sein. Erstere stellt sich häufig apokalyptische Zustände vor, Letztere schreibt einfach wenige Zeilen Code und setzt so ein neuronales Netz auf, das in der Lage ist, beispielsweise bösartige Hirntumore zu klassifizieren.

Inhalt:
  1. Künstliche Intelligenz: Wie erklären Menschen die Entscheidungen von Computern?
  2. Keine Erklärbarkeit ist auch keine Lösung
  3. KI-Entscheidungen erklären mit Lime und Shap
  4. KI-Modelle sind keine Blackbox mehr

Die Möglichkeiten der KI sind scheinbar unbegrenzt und für Fachleute sind einfache Anwendungen, soweit die Datenbasis von hoher Qualität ist, als Prototyp meist leicht umsetzbar. Bei diesen vielfältigen Einsatzgebieten stellt sich die Frage, wer noch wirklich versteht, was in so einem Netz passiert.

Von KI-Entscheidungen erwarten wir mehr als von menschlichen

Von künstlicher Intelligenz wird zunehmend Erklärbarkeit beziehungsweise Transparenz gefordert. Im ersten Moment ist dies verständlich, da gewisse Entscheidungen nachvollzogen werden sollten - etwa bei einem Unfall eines autonomen Fahrzeugs.

Es gibt aber auch eine andere Perspektive: Wir wissen auch nicht von jedem menschlichen Verursacher eines Verkehrsunfalls, warum er während einer Notsituation so gehandelt hat oder wie er in einer solchen Situation handeln würde. Was würden Sie tun, wenn Sie die Wahl hätten, in eine Gruppe älterer Menschen oder in ein Kind zu fahren - und es keine weitere Option gäbe (auch bekannt als Trolley-Problem)? Und hätten Sie in einer solchen Stresssituation überhaupt eine Wahl?

Stellenmarkt
  1. Support Engineer (m/w/d) Kundensupport für die technische Konfiguration einer Software-Lösung
    easySoft. GmbH, Metzingen, Bretten (Home-Office möglich)
  2. Auditorin / Auditor (w/m/d) für Informationssicherheit
    Präsidium Technik, Logistik, Service der Polizei, Stuttgart
Detailsuche

Von einem autonomen Auto verlangen wir allerdings klare Antworten und Begründungen, warum wie gehandelt wurde. Das ist auch gut so und sollte weiterhin so gehandhabt werden, aber der Vergleich von Mensch und Maschine ist trotzdem diskussionswürdig und soll an dieser Stelle bloß als Gedankenexperiment dienen.

Keine einfachen Wenn-Dann-Funktionen

Bei einem Algorithmus, der wie bei Spotify oder Youtube Vorschläge für die nächsten Songs oder Videos ausarbeitet, scheint es nicht die größte Priorität zu haben, nachvollziehen zu können, wie die Vorschläge zustande gekommen sind. Etwa bei den Gehirntumoren dringen wir mit modernen maschinellen Lernsystemen wie neuronalen Netzen jedoch immer mehr in sensible Bereiche vor.

Künstliche Intelligenz: Wissensverarbeitung - Neuronale Netze

Die Antworten auf Fragen wie "Warum hat eine KI diese Entscheidung getroffen?" oder "Welche Faktoren haben zu dieser Vorhersage geführt?" sind nicht nur für die Arbeit von Entwicklern interessant. In Zeiten, in denen die intelligente Datennutzung in allen Branchen und Lebensbereichen vertreten ist, sind sie auch ethisch und rechtlich notwendig.

Doch wir stehen vor einem Problem: Natürlich können verschiedene Interessengruppen fordern, Algorithmen transparenter zu gestalten, doch diese sind schon lange keine einfachen Wenn-Dann-Funktionen beziehungsweise regelbasierten Systeme mehr. Ihre Entscheidungen können nicht immer einfach herausgelesen werden.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Keine Erklärbarkeit ist auch keine Lösung 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


sambache 29. Mai 2022 / Themenstart

Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...

Oktavian 29. Mai 2022 / Themenstart

Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...

Flexy 28. Mai 2022 / Themenstart

Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...

Flexy 28. Mai 2022 / Themenstart

Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...

Kommentieren



Aktuell auf der Startseite von Golem.de
Unix-Nachfolger
Plan 9 sollte bessere Audio-Kompression bekommen als MP3

Die Entwicklung der Audio-Kompression und die schwierige MP3-Patentsituation hätte ohne das Nein eines Anwalts wohl anders ausgesehen.

Unix-Nachfolger: Plan 9 sollte bessere Audio-Kompression bekommen als MP3
Artikel
  1. Vision, Disruption, Transformation: Populäre Denkfehler in der Digitalisierung
    Vision, Disruption, Transformation
    Populäre Denkfehler in der Digitalisierung

    Der Essay Träge Transformation hinterfragt Schlagwörter des IT-Managements und räumt mit gängigen Vorstellungen auf. Die Lektüre ist aufschlussreich und sogar lustig.
    Eine Rezension von Ulrich Hottelet

  2. Hermit: Google analysiert italienischen Staatstrojaner
    Hermit
    Google analysiert italienischen Staatstrojaner

    Der Staatstrojaner einer italienische Firma funktioniert sogar in Zusammenarbeit mit dem ISP. Dafür braucht es nicht zwingend ausgefallene Exploits.

  3. Pro Electric SuperVan: Ford zeigt Elektro-Van mit 1.490 kW
    Pro Electric SuperVan
    Ford zeigt Elektro-Van mit 1.490 kW

    Ford hat auf dem Goodwood Festival of Speed den Ford Pro Electric SuperVan gezeigt, der die Tradition der Transit-Showcars des Unternehmens fortsetzt.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Prime Video: Filme leihen 0,99€ • Alternate: Gehäuse & Co. von Fractal Design • Nur noch heute: 16.000 Artikel günstiger bei MediaMarkt • MindStar (Samsung 970 EVO Plus 250GB 39€) • Hori RWA 87,39€ • Honor X7 128GB 150,42€ • Phanteks Eclipse P200A + Glacier One 280 157,89€ [Werbung]
    •  /