Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Interpretierbarkeit für KI:
Wie man neuronale Netze verstehen kann

Neuronale Netze bestehen zum Großteil aus schwer zu interpretierenden Matrix-Rechnungen. Wir erklären, wie man den Sinn dahinter sieht.
/ Tim Elsner
14 Kommentare News folgen (öffnet im neuen Fenster)
"Träumende" KI offenbart, was ein neuronales Netz in Bildern sieht. (Bild: Tim Elsner)
"Träumende" KI offenbart, was ein neuronales Netz in Bildern sieht. Bild: Tim Elsner

Neuronale Netze dominieren den aktuellen Hype um künstliche Intelligenz: Von der App auf dem Handy, die aus Blumenfotos die Pflanzenart erkennen kann, bis zu ChatGPT steckt hinter fast allem an moderner KI ein neuronales Netz.

Das Gelernte im Inneren der neuronalen Netze ist dabei aber nicht leicht zu interpretieren, weil im Gewirr von Milliarden oder sogar Billionen Verbindungen, genau wie im menschlichen Gehirn, vieles nicht ersichtlich oder eindeutig ist. Mathematisch gesprochen ist es nahezu unmöglich, aus der Abfolge von Dutzenden gigantischen Matrix-Multiplikationen einer Eingabe einen Sinn zu erkennen.

Golem Plus Artikel