Keine Erklärbarkeit ist auch keine Lösung

Oft wird künstliche Intelligenz mit Systemen in Verbindung gebracht, die im Hintergrund einen einfachen Entscheidungsbaum oder eine lineare Regression verwenden. Diese Art von Modellen nennt man interpretierbare Modelle, weil das mathematische Modell an sich schon reicht, um die wichtigsten Features zu beschreiben und somit zu erklären.

Stellenmarkt
  1. Consultant / Specialist Projektmanagement Digitalisierung Filiale (m/w/d)
    ALDI SÜD Dienstleistungs-SE & Co. oHG, Mülheim an der Ruhr
  2. Informatiker / Fachinformatiker (m/w/d) Netzwerktechnik und -sicherheit
    ED Netze GmbH, Rheinfelden (Baden)
Detailsuche

Entscheidungsbäume (wie in dieser Abbildung dargestellt) sind dabei besonders gut geeignet, weil jede Entscheidung nachvollzogen werden kann. Auch die Regression bei der Vorhersage von Zahlenwerten liefert für jede Inputvariable einen Wert, der zeigt, wie wichtig diese Variable für die Vorhersage ist. Doch nicht jede Problemstellung kann mit dieser Art von Modellen dargestellt und somit gelöst werden.

Die mathematischen Modelle werden zunehmend komplexer, wie auch diese Abbildung veranschaulicht. Das ist darauf zurückzuführen, dass man Problemstellungen mit immer mehr Dimensionen lösen will. Dabei bietet diese Art von Netzwerk mit passendem Anwendungsfall extreme Genauigkeit.

Je komplexer das Modell, desto undurchschaubarer

Die Erklärbarkeit nimmt mit zunehmender Größe des Modells drastisch ab, da immens viele Verbindungen existieren. Zusätzlich werden all diesen Verbindungen und Knotenpunkten numerische Werte zugeordnet, die je nach Problem adaptiv angepasst werden. Genau diese Parameter werden in einer sogenannten Lernphase wie bei unserem biologischen neuronalen Netz trainiert. Dieser Prozess kann viele Zyklen durchlaufen, um so immer weiter zu einem Optimum zu kommen.

Künstliche Intelligenz: Wissensverarbeitung - Neuronale Netze
Golem Karrierewelt
  1. Kubernetes – das Container Orchestration Framework: virtueller Vier-Tage-Workshop
    11.-14.07.2022, Virtuell
  2. Green IT: Praxisratgeber zur nachhaltigen IT-Nutzung (virtueller Ein-Tages-Workshop)
    10.08.2022, virtuell
Weitere IT-Trainings

Es sollte noch erwähnt werden, dass die einzelnen Schichten beziehungsweise Knotenpunkte auch in ihrer Größe variieren und es diverse Abarten dieses noch simplen Aufbaus gibt, um beispielsweise Bild- oder Audiodaten verarbeiten zu können. Es kann allerdings davon ausgegangen werden: Je vielseitiger und komplexer das Modell ist, desto undurchsichtiger ist die Entscheidung.

Wie soll man nun mit dieser Erkenntnis umgehen? Soll man Fahrzeuge autonom machen oder medizinische Vorhersagen implementieren, ohne die Entscheidungen der KI nachvollziehen zu können? Selbstverständlich nicht, das wäre ethisch und rechtlich nicht vertretbar. Daher wird intensiv an diversen Ansätzen geforscht, um Modelle für Menschen erklärbar zu machen. Zu den wichtigsten Methoden gehören sogenannte Modell-agnostische Erklärungen, die ohne Wissen über ein spezifisches Modell solche Erklärungen liefern können.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Künstliche Intelligenz: Wie erklären Menschen die Entscheidungen von Computern?KI-Entscheidungen erklären mit Lime und Shap 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


sambache 29. Mai 2022 / Themenstart

Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...

Oktavian 29. Mai 2022 / Themenstart

Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...

Flexy 28. Mai 2022 / Themenstart

Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...

Flexy 28. Mai 2022 / Themenstart

Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...

Kommentieren



Aktuell auf der Startseite von Golem.de
Unix-Nachfolger
Plan 9 sollte bessere Audio-Kompression bekommen als MP3

Die Entwicklung der Audio-Kompression und die schwierige MP3-Patentsituation hätte ohne das Nein eines Anwalts wohl anders ausgesehen.

Unix-Nachfolger: Plan 9 sollte bessere Audio-Kompression bekommen als MP3
Artikel
  1. Probefahrt mit Toyota bZ4X: Starker Auftritt mit kleinen Schwächen
    Probefahrt mit Toyota bZ4X
    Starker Auftritt mit kleinen Schwächen

    Das erste Elektroauto von Toyota kommt spät - und weist trotzdem noch Schwachpunkte auf. Der Hersteller verspricht immerhin schnelle Abhilfe.
    Ein Bericht von Franz W. Rother

  2. Hermit: Google analysiert italienischen Staatstrojaner
    Hermit
    Google analysiert italienischen Staatstrojaner

    Der Staatstrojaner einer italienische Firma funktioniert sogar in Zusammenarbeit mit dem ISP. Dafür braucht es nicht zwingend ausgefallene Exploits.

  3. Vision, Disruption, Transformation: Populäre Denkfehler in der Digitalisierung
    Vision, Disruption, Transformation
    Populäre Denkfehler in der Digitalisierung

    Der Essay Träge Transformation hinterfragt Schlagwörter des IT-Managements und räumt mit gängigen Vorstellungen auf. Die Lektüre ist aufschlussreich und sogar lustig.
    Eine Rezension von Ulrich Hottelet

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Prime Video: Filme leihen 0,99€ • Alternate: Gehäuse & Co. von Fractal Design • Nur noch heute: 16.000 Artikel günstiger bei MediaMarkt • MindStar (Samsung 970 EVO Plus 250GB 39€) • Hori RWA 87,39€ • Honor X7 128GB 150,42€ • Phanteks Eclipse P200A + Glacier One 280 157,89€ [Werbung]
    •  /