KI-Entscheidungen erklären mit Lime und Shap

Zwei der wichtigsten Vertreter der Modell-agnostischen Erklärungen sind Lime und Shap. Sie können auf jedes Machine-Learning-Modell angewendet werden und funktionieren sogar mit komplexen Datenstrukturen wie Text- oder Bilddaten.

Stellenmarkt
  1. Junior Research Analyst (w/m/d) für Gewerbeimmobilien
    Avison Young - Germany GmbH, Frankfurt am Main, Hamburg, Berlin
  2. Functional Safty Engineer (m/w/d)
    Schaeffler Technologies AG & Co. KG, Werdohl
Detailsuche

Bei Lime wird, vereinfacht gesagt, für eine Vorhersage für genau diese eine Instanz ein einfacheres lokales Modell erzeugt. Somit lässt sich für diese Instanz sagen, welche Parameter den stärksten Einfluss hatten. Statt eines globalen undurchsichtigen neuronalen Netzes wird also ein lokales lineares Trennmodell erzeugt, das durch die benachbarten beziehungsweise ähnlichen Datenpunkte eine einfache Trennlinie legt. Genau diese simple Linie kann herangezogen werden, um für diesen lokalen Datenpunkt zu sagen, welche Features ausschlaggebend für die jeweilige Klassifikation waren und welche nicht.

Shap basiert auf der Spieltheorie und versucht mithilfe von Shapely-Values lokale Interpretierbarkeit zu gewährleisten. Dabei werden alle möglichen Kombinationen der Inputfeatures herangezogen und Modelle getrennt voneinander trainiert. Das Ergebnis beziehungsweise der Output der Modelle wird laufend kontrolliert.

Bei wichtigen Features wird sich das durchschnittliche Ergebnis beträchtlich ändern, da dadurch ja die Vorhersagekraft deutlich angehoben wird. Falls genau dieses Feature bei allen vorhin erwähnten Kombinationen zu einem besseren Ergebnis beiträgt, wird es ein wichtiges Feature im Gesamtmodell sein.

Golem Karrierewelt
  1. First Response auf Security Incidents: Ein-Tages-Workshop
    14.11.2022, Virtuell
  2. Adobe Photoshop Aufbaukurs: virtueller Zwei-Tage-Workshop
    14./15.07.2022, Virtuell
Weitere IT-Trainings

Der Vollständigkeit halber sei gesagt, dass diese Erklärungen vor allem eines sind: sehr kurz. Allerdings soll es in diesem Artikel auch nur um die grobe Intuition der Methoden gehen. Zum Weiterlesen gibt es hier eine theoretische Quelle und eine praktische Umsetzung.

Implementiert man Lime oder Shap, ist es möglich, ein Modell bis zu einem gewissen Grad erklärbar zu machen. Mit Erklärbarkeit ist meist die Wichtigkeit der jeweiligen Inputvariablen für die einzelnen Vorhersagen gemeint. Um diesen Vorgang greifbarer zu machen, folgen ein paar praktische Beispiele.

Die einzelnen Pixel, sprich die Inputs je nach Klasse, werden farblich gekennzeichnet (wie etwa auf dieser Abbildung zu sehen ist). So entsteht eine Art Heatmap für das entsprechende Bild.

Bilddaten eignen sich hervorragend, um sich vorzustellen, wie Erklärbarkeit umgesetzt werden kann, da man die Erklärungen leicht verständlich auf den jeweiligen Bildern visuell markieren kann. Ein einfaches Beispiel wäre das autonome Fahren, um zu visualisieren, welche Objekte (Stoppschilder, Zebrastreifen etc.) der Fahralgorithmus erkennt und welche nicht beziehungsweise falsch klassifiziert werden (statt 50 km/h Höchstgeschwindigkeit zum Beispiel 70 km/h). Vor allem bei Unfällen wird in Zukunft die Erklärung von gewissen Entscheidungen durch einen Fahralgorithmus eine große Rolle spielen.

Künstliche Intelligenz: Wissensverarbeitung - Neuronale Netze

Der Implementierungsaufwand ist für Entwickler ein zentraler Punkt, um Explainable-AI-Methoden einzusetzen. Sind Methoden nur mit hohem Aufwand umsetzbar, werden nicht viele Programmierer Schritte in diese Richtung wagen. Mittlerweile gibt es allerdings zahlreiche Methoden (neben Lime und Shap etwa Layer-wise Relevance Propagation Rationalization) und Packages für diverse Programmiersprachen.

Für R beziehungsweise Python gibt es beispielsweise Dalex, das an sich zwar keine Methode ist, aber ein Package, das diverse Berechnungsmethoden wie Lime oder Shap kombiniert und in einfacher Weise zur Verfügung stellt. Hier möchte man etwa mithilfe von verschiedenen Variablen wie dem BIP oder der Wahrnehmung von Korruption "Happiness" vorhersagen.

Dalex berechnet nun im Hintergrund je nach gewählter Methode die Wichtigkeit der einzelnen Inputfeatures und bereitet sie grafisch auf. In unserem Beispiel stellt man damit etwa schnell und einfach fest, dass die soziale Unterstützung ein wesentlicher Faktor ist, um die "Happiness" zu bestimmen. Diese Berechnung kann auf neuronale Netze sowie diverse andere Modelle angewendet werden. Zudem ist hervorzuheben, dass dieser Vorgang in wenigen Zeilen Code umgesetzt werden kann und es so keinen hohen Zeitaufwand braucht, um undurchsichtige Entscheidungen transparent darzustellen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Keine Erklärbarkeit ist auch keine LösungKI-Modelle sind keine Blackbox mehr 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


sambache 29. Mai 2022 / Themenstart

Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...

Oktavian 29. Mai 2022 / Themenstart

Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...

Flexy 28. Mai 2022 / Themenstart

Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...

Flexy 28. Mai 2022 / Themenstart

Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...

Kommentieren



Aktuell auf der Startseite von Golem.de
Code-Genossenschaften
Mitbestimmung und Einheitsgehalt statt Frust im Hamsterrad

Programmieren ohne Chef, das klingt für Angestellte wie ein Traum. Kleine Unternehmen wagen eine hierarchiefreie Graswurzelrevolution.
Ein Bericht von Daniel Ziegener

Code-Genossenschaften: Mitbestimmung und Einheitsgehalt statt Frust im Hamsterrad
Artikel
  1. TADF Technologie: Samsung kauft Cynora in Bruchsal und entlässt alle
    TADF Technologie
    Samsung kauft Cynora in Bruchsal und entlässt alle

    Der Cynora-Chef wollte das deutsche Start-up zum Einhorn entwickeln. Nun wurden die Patente und die TADF-Technologie von Samsung für 300 Millionen Dollar gekauft und das Unternehmen zerschlagen.

  2. Gig-Economy: Flink-Fahrer wollen einen Betriebsrat
    Gig-Economy
    Flink-Fahrer wollen einen Betriebsrat

    Ein weiteres Start-up könnte eine Mitarbeiterorganisation bekommen. Das kündigten die Berliner Kuriere des Onlinelieferdienstes heute an.

  3. Geforce GTX 1630: Nvidia bringt extralahme Grafikkarte - wegen Intel
    Geforce GTX 1630
    Nvidia bringt extralahme Grafikkarte - wegen Intel

    Die Geforce GTX 1630 wird unter der Arc A380 positioniert, weshalb Nvidia einen alten Chip in stark beschnittener Form wieder aufleben lässt.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PNY RTX 3080 12GB günstig wie nie: 929€ • MindStar (MSI RX 6700 XT 499€, G.Skill DDR4-3600 32GB 165€, AMD Ryzen 9 5900X 375€) • Nur noch heute: NBB Black Week • Top-TVs bis 53% Rabatt • Top-Gaming-PC mit AMD Ryzen 7 RTX 3070 Ti 1.700€ • Samsung Galaxy S20 FE 5G 128GB 359€ [Werbung]
    •  /