KI: Der Funke springt über
Einen wichtigen Impuls gab die Hirnforschung der Informatik in den 1940er Jahren: Der Neurologe Warren S. McCulloch und der Logiker Walter Pitts beschrieben ein extrem vereinfachtes Modell für Gehirnzellen (Original (hinter Paywall)/Nachdruck), um zu untersuchen, welche Rechenoperationen von ihnen durchgeführt werden können.
Ihr künstliches Neuron empfängt Signale aus einer Reihe anregender und hemmender Eingangskanäle, wobei zu einem gegebenen Zeitpunkt über jeden der Kanäle nur eine Null oder eine Eins übertragen werden kann. Außer den Eingängen verfügt das Neuron über einen Ausgangskanal, über den es seinen Zustand an seine Umwelt kommunizieren kann.
Das Neuron führt die folgende Rechenoperation aus: Falls die Anzahl der Einsen an seinen anregenden Eingängen einen bestimmten Schwellenwert überschreitet und falls an keinem der hemmenden Eingänge eine Eins anliegt, sendet das Neuron eine Eins über seinen Ausgangskanal, andernfalls eine Null.
Heute verwendete künstliche Neuronen verarbeiten anstatt der binären Signale normalerweise reelle Zahlen und ihre Eingänge werden mit Gewichtungsfaktoren multipliziert. Außerdem wird das Ausgangssignal durch eine nichtlineare Funktion, die sogenannte Aktivierungsfunktion, skaliert. Ansonsten unterscheiden sich die künstlichen Neuronen heutiger Algorithmen aber nicht grundlegend von ihren fast achtzig Jahre alten Vorfahren.
Das künstliche Neuron feuert
Ein künstliches Neuron kann man sich als einen Musterdetektor vorstellen, der auf eine bestimmte auffällige Konstellation in einem Strom von Eingangsdaten anschlägt. Das Neuron ist wie oben beschrieben über mehrere Eingänge - in der Biologie Synapsen genannt - mit verschiedenen Signalquellen verbunden.
Diese Quellen können externe Daten sein, wenn beispielsweise die Farbwerte von bestimmten Pixeln eines Bildes an die Eingänge des Neurons gelegt werden. Die Quellen können aber auch die Ausgangskanäle anderer Neuronen sein, die schon eine gewisse Vorverarbeitung der Ursprungsdaten durchgeführt haben. In jedem Falle legen diese Verknüpfungen der Eingänge sozusagen das Lieblingsmuster des Neurons fest, also die Kombination von Eingangssignalen, auf die es am stärksten reagiert.
Je nach Wahl der Aktivierungsfunktion zeigt die Reaktion des Neurons eine gewisse Toleranz gegenüber Abweichungen von diesem Lieblingsmuster, was der Robustheit der Rechenergebnisse zugutekommt. Die Aktivierungsfunktion ist meist so gewählt, dass das Neuron erst aktiv wird und eine positive Zahl aussendet, wenn seine Anregung durch die Eingangskanäle einen bestimmten Schwellwert übersteigt. In Analogie zu den elektrischen Entladungen in biologischen Neuronen sagt man dann, das Neuron feuert.
Durch sein Feuern meldet das Neuron, dass es sein Muster im Eingangssignal erkannt hat, und dies kann entweder das Endergebnis einer Berechnung darstellen (z. B. "Katze im Bild erkannt") oder seinerseits als Eingangssignal für andere künstliche Neuronen dienen.
Ein typisches Beispiel, welches sowohl im Gehirnals auch in künstlichen neuronalen Netzen (PDF) relevant ist, sind Kantendetektoren für die Vorverarbeitung von visuellen Daten. Natürliche Bilder sind nämlich bei weitem keine beliebigen Ansammlungen von Pixeln, sondern ihre Bildpunkte weisen untereinander starke und sehr komplexe statistische Zusammenhänge auf. Insbesondere sind kurze gerade Kanten zwischen einer hellen und einer dunklen Fläche ein häufig anzutreffendes Muster.
Entsprechend finden sich sowohl in den unteren Schichten von künstlichen neuronalen Netzen als auch im primären visuellen Cortex des Gehirns Neuronen, die jeweils auf eine solche Kante an einer bestimmten Stelle im Sichtfeld reagieren.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Künstliche Intelligenz: Wie frühe Hirnforschung moderne KI beeinflusst hat | Hirnforschung und KI: Ein Flirt und sein Ende |
Schließe mich dem Lob an, äußerst interessanter Artikel!
Eine pauschalisierte Aussage, Neuronen sind nicht viel anders, als Transistoren, haben...