Gehirn schlägt KI
Ein klarer Hinweis auf die Unterschiedlichkeit von Gehirn und KI ergibt sich aus einem Vergleich ihrer Leistungsfähigkeit. Wie im letzten Artikel beschrieben, ist die biologische Intelligenz ihrer Konkurrenz aus Silizium noch weit voraus, wenn es etwa darum geht, verallgemeinerte Konzepte aus Beobachtungen zu erzeugen, von wenigen Beispielen zu lernen oder einmal gelerntes Wissen auf neue Bereiche zu übertragen. Worin liegen aber die Ursachen für diese Unterschiede?
Offensichtlich ist das Substrat in beiden Fällen ein völlig anderes: Das Gehirn als Organ hat sich im Laufe der Evolution gemeinsam mit den darin ablaufenden Algorithmen entwickelt. Seine Hardware und seine Software bilden eine untrennbare Einheit und sind entsprechend gut aufeinander abgestimmt.
Ein Mikrochip andererseits ist zwar sehr flexibel einsetzbar, muss aber gegebenenfalls Prozesse, die im Gehirn auf chemischer oder physikalischer Ebene sozusagen von selbst ablaufen, mühsam Schritt für Schritt simulieren.
So wichtig diese materiellen Grundlagen für technische Kennzahlen wie Rechengeschwindigkeit oder Energieverbrauch jedoch auch sein mögen: Die wirklich entscheidenden Unterschiede sind anderer - nämlich konzeptioneller - Natur.
Unterschied 1: Vorwärtsgerichtet versus rekurrent
In den üblicherweise verwendeten vorwärtsgerichteten neuronalen Netzen schicken die Neuronen ihre Ausgabewerte an die jeweils nächste Schicht weiter, nicht aber an ihre Nachbarn derselben Schicht und erst recht nicht zurück an vorhergehende Schichten (siehe Bild 2). Eine Alternative sind rekurrente Netzwerke, in denen die Information zwischen den Zellen sozusagen auch im Kreis laufen kann.
Das Long Short-Term Memory (LSTM, Video) ist wohl das bekannteste Beispiel für die Verwendung solcher Architekturen in der Informatik. Die Rückkopplungen im Netzwerk dienen hier vor allem dazu, Informationen aus vorherigen Zeitschritten in den Schleifen des Netzwerkes zwischenzuspeichern.
Entsprechend sind derartige Netzwerke besonders nützlich, um Zeitreihen wie Sprachsignale zu modellieren (wobei sie allerdings zunehmend von den modernen Transformer-Netzwerken verdrängt werden (PDF)).
Das Netzwerk der Nervenzellen im Gehirn ist hingegen fundamental rekurrent aufgebaut: Selbst im schon erwähnten primären visuellen Cortex, der an der Vorverarbeitung visueller Sinneseindrücke beteiligt ist, übermitteln nur rund fünf bis zehn Prozent der anregenden Synapsen Informationen, die über Nervenbahnen mehr oder weniger direkt vom Auge weitergeleitet wurden. Die große Mehrheit der Synapsen hingegen stellt gegenseitige Verknüpfungen innerhalb der Hirnrinde - also rekurrente Verbindungen - dar.
Die Gründe für den hohen Grad an Rekurrenz im biologischen Gehirn sind im Wesentlichen unklar. Sie dürften jedoch weit über das bloße Zwischenspeichern von Information in Netzwerkschleifen wie im LSTM hinausgehen.
Die rekurrente Verschaltung stellt die Neurowissenschaften auch noch vor ein ganz besonderes Rätsel. Wie schon erklärt wäre es naheliegend, gewisse Neuronen im Gehirn als Musterdetektoren zu interpretieren: Zum einen deckt sich dies mit ihrem experimentell beobachteten Feuerverhalten und zum anderen wären solche Musterdetektoren auch als Grundbausteine verschiedener Algorithmen durchaus plausibel.
Doch warum sollten diese Nervenzellen dann in großem Stil von ihren Nachbarn oder von oben - also durch Signale aus höheren Schichten - beeinflusst werden? Man würde vielmehr erwarten, dass ein solcher Detektor es möglichst objektiv und unabhängig melden sollte, wenn sein bevorzugtes Muster in den von außen kommenden Sinnesreizen enthalten ist.
Als Erklärungsansätze für dieses Phänomen gibt es einige algorithmisch interessante Hypothesen, die über die traditionelle Modellierung künstlicher neuronaler Netze hinausgehen. Sie zu beschreiben, würde jedoch den Umfang dieses Artikels sprengen, weshalb wir uns gesondert mit den möglichen Implikationen rekurrenter Verbindungen befassen werden.
Unterschied 2: Extern getrieben versus Eigendynamik
Die unterschiedlichen Verknüpfungsarchitekturen von Deep Learning und Gehirn spiegeln sich natürlich auch in ihrem dynamischen Verhalten (siehe Bild 3) wider. Im künstlichen neuronalen Netzwerk werden alle Rechenoperationen strikt sequenziell Schicht für Schicht abgearbeitet. Das Netzwerk wird also nur von außen durch die Eingangsdaten angetrieben. Liegen solche nicht vor, dann hat das Netzwerk auch nichts zu tun und bleibt inaktiv.
Ganz anders ist die Situation im Gehirn, wo die Neuronen ständig aktiv sind und miteinander wechselwirken, selbst wenn gerade keine Sinnesreize von außen ankommen. Tatsächlich stellt die Anregung von Nervenzellen durch äußere Einflüsse nur einen sehr kleinen Teil der Gesamtaktivität dar. Dennoch reicht ihre Wirkung offensichtlich aus, um das Gesamtsystem stark zu beeinflussen und in neue Bahnen zu lenken.
Wenn zum Beispiel ein Fluchttier im Gebüsch die Umrisse eines Räubers auszumachen glaubt, genügen vergleichsweise wenige angeregte Nervenzellen im visuellen System, um das gesamte Gehirn in einen komplett neuen Zustand - den Fluchtmodus - zu versetzen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Neuronale Netze: Biologie, stark vereinfacht | Lernstrategien und unbekannte Unbekannte |
Du gehst davon aus, dass alle Unfälle vermeidbar sind. Das ist nicht der Fall...
das stimmt, deshalb schrieb ich auch "schliesslich macht das Gehirn auch Fehler die...
Letzteres ist aber ein hinkendes Beispiel, da es zum einen die Absicht dieser Politiker...
Darin ist wohl das assoziative Lernen begründet.