Keine Erklärbarkeit ist auch keine Lösung
Oft wird künstliche Intelligenz mit Systemen in Verbindung gebracht, die im Hintergrund einen einfachen Entscheidungsbaum oder eine lineare Regression verwenden. Diese Art von Modellen nennt man interpretierbare Modelle, weil das mathematische Modell an sich schon reicht, um die wichtigsten Features zu beschreiben und somit zu erklären.
Entscheidungsbäume (wie in dieser Abbildung dargestellt) sind dabei besonders gut geeignet, weil jede Entscheidung nachvollzogen werden kann. Auch die Regression bei der Vorhersage von Zahlenwerten liefert für jede Inputvariable einen Wert, der zeigt, wie wichtig diese Variable für die Vorhersage ist. Doch nicht jede Problemstellung kann mit dieser Art von Modellen dargestellt und somit gelöst werden.
Die mathematischen Modelle werden zunehmend komplexer, wie auch diese Abbildung veranschaulicht. Das ist darauf zurückzuführen, dass man Problemstellungen mit immer mehr Dimensionen lösen will. Dabei bietet diese Art von Netzwerk mit passendem Anwendungsfall extreme Genauigkeit.
Je komplexer das Modell, desto undurchschaubarer
Die Erklärbarkeit nimmt mit zunehmender Größe des Modells drastisch ab, da immens viele Verbindungen existieren. Zusätzlich werden all diesen Verbindungen und Knotenpunkten numerische Werte zugeordnet, die je nach Problem adaptiv angepasst werden. Genau diese Parameter werden in einer sogenannten Lernphase wie bei unserem biologischen neuronalen Netz trainiert. Dieser Prozess kann viele Zyklen durchlaufen, um so immer weiter zu einem Optimum zu kommen.
Es sollte noch erwähnt werden, dass die einzelnen Schichten beziehungsweise Knotenpunkte auch in ihrer Größe variieren und es diverse Abarten dieses noch simplen Aufbaus gibt, um beispielsweise Bild- oder Audiodaten verarbeiten zu können. Es kann allerdings davon ausgegangen werden: Je vielseitiger und komplexer das Modell ist, desto undurchsichtiger ist die Entscheidung.
Wie soll man nun mit dieser Erkenntnis umgehen? Soll man Fahrzeuge autonom machen oder medizinische Vorhersagen implementieren, ohne die Entscheidungen der KI nachvollziehen zu können? Selbstverständlich nicht, das wäre ethisch und rechtlich nicht vertretbar. Daher wird intensiv an diversen Ansätzen geforscht, um Modelle für Menschen erklärbar zu machen. Zu den wichtigsten Methoden gehören sogenannte Modell-agnostische Erklärungen, die ohne Wissen über ein spezifisches Modell solche Erklärungen liefern können.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Künstliche Intelligenz: Wie erklären Menschen die Entscheidungen von Computern? | KI-Entscheidungen erklären mit Lime und Shap |
Ich weiss, dass sie das nicht können ;-) Da gilt es ja 85 Milliarden Gehirnzellen...
Es funktioniert dann, wenn das autonome Fahrzeug nahezu perfekt funktioniert. Es muss...
Jain.. Bei komplexen, iterativen System wie der Realität hast du leider das Problem...
Jetzt muss man die KI nur noch dazu bringen mit dem autonomen Auto das Multitrack...
Kommentieren