Gehirn schlägt KI

Ein klarer Hinweis auf die Unterschiedlichkeit von Gehirn und KI ergibt sich aus einem Vergleich ihrer Leistungsfähigkeit. Wie im letzten Artikel beschrieben, ist die biologische Intelligenz ihrer Konkurrenz aus Silizium noch weit voraus, wenn es etwa darum geht, verallgemeinerte Konzepte aus Beobachtungen zu erzeugen, von wenigen Beispielen zu lernen oder einmal gelerntes Wissen auf neue Bereiche zu übertragen. Worin liegen aber die Ursachen für diese Unterschiede?

Offensichtlich ist das Substrat in beiden Fällen ein völlig anderes: Das Gehirn als Organ hat sich im Laufe der Evolution gemeinsam mit den darin ablaufenden Algorithmen entwickelt. Seine Hardware und seine Software bilden eine untrennbare Einheit und sind entsprechend gut aufeinander abgestimmt.

Ein Mikrochip andererseits ist zwar sehr flexibel einsetzbar, muss aber gegebenenfalls Prozesse, die im Gehirn auf chemischer oder physikalischer Ebene sozusagen von selbst ablaufen, mühsam Schritt für Schritt simulieren.

So wichtig diese materiellen Grundlagen für technische Kennzahlen wie Rechengeschwindigkeit oder Energieverbrauch jedoch auch sein mögen: Die wirklich entscheidenden Unterschiede sind anderer - nämlich konzeptioneller - Natur.

Unterschied 1: Vorwärtsgerichtet versus rekurrent

In den üblicherweise verwendeten vorwärtsgerichteten neuronalen Netzen schicken die Neuronen ihre Ausgabewerte an die jeweils nächste Schicht weiter, nicht aber an ihre Nachbarn derselben Schicht und erst recht nicht zurück an vorhergehende Schichten (siehe Bild 2). Eine Alternative sind rekurrente Netzwerke, in denen die Information zwischen den Zellen sozusagen auch im Kreis laufen kann.

  • Links: Ein künstliches Neuron ist eine mathematische Operation, nämlich eine nichtlineare Funktion angewandt auf eine gewichtete Summe der Eingangswerte. Rechts: Das biologische Neuron empfängt chemische Signale an seinen Postsynapsen, die es dazu anregen können, einen elektrischen Impuls an seinem Axon entlang zu schicken. Dieses Signal kann über die Präsynapsen wiederum die Postsynapsen anderer Neuronen beeinflussen. (Bild: Helmut Linde)
  • Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)
  • Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)
  • Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.
Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)

Das Long Short-Term Memory (LSTM, Video) ist wohl das bekannteste Beispiel für die Verwendung solcher Architekturen in der Informatik. Die Rückkopplungen im Netzwerk dienen hier vor allem dazu, Informationen aus vorherigen Zeitschritten in den Schleifen des Netzwerkes zwischenzuspeichern.

Entsprechend sind derartige Netzwerke besonders nützlich, um Zeitreihen wie Sprachsignale zu modellieren (wobei sie allerdings zunehmend von den modernen Transformer-Netzwerken verdrängt werden (PDF)).

Das Netzwerk der Nervenzellen im Gehirn ist hingegen fundamental rekurrent aufgebaut: Selbst im schon erwähnten primären visuellen Cortex, der an der Vorverarbeitung visueller Sinneseindrücke beteiligt ist, übermitteln nur rund fünf bis zehn Prozent der anregenden Synapsen Informationen, die über Nervenbahnen mehr oder weniger direkt vom Auge weitergeleitet wurden. Die große Mehrheit der Synapsen hingegen stellt gegenseitige Verknüpfungen innerhalb der Hirnrinde - also rekurrente Verbindungen - dar.

Die Gründe für den hohen Grad an Rekurrenz im biologischen Gehirn sind im Wesentlichen unklar. Sie dürften jedoch weit über das bloße Zwischenspeichern von Information in Netzwerkschleifen wie im LSTM hinausgehen.

Die rekurrente Verschaltung stellt die Neurowissenschaften auch noch vor ein ganz besonderes Rätsel. Wie schon erklärt wäre es naheliegend, gewisse Neuronen im Gehirn als Musterdetektoren zu interpretieren: Zum einen deckt sich dies mit ihrem experimentell beobachteten Feuerverhalten und zum anderen wären solche Musterdetektoren auch als Grundbausteine verschiedener Algorithmen durchaus plausibel.

Doch warum sollten diese Nervenzellen dann in großem Stil von ihren Nachbarn oder von oben - also durch Signale aus höheren Schichten - beeinflusst werden? Man würde vielmehr erwarten, dass ein solcher Detektor es möglichst objektiv und unabhängig melden sollte, wenn sein bevorzugtes Muster in den von außen kommenden Sinnesreizen enthalten ist.

Als Erklärungsansätze für dieses Phänomen gibt es einige algorithmisch interessante Hypothesen, die über die traditionelle Modellierung künstlicher neuronaler Netze hinausgehen. Sie zu beschreiben, würde jedoch den Umfang dieses Artikels sprengen, weshalb wir uns gesondert mit den möglichen Implikationen rekurrenter Verbindungen befassen werden.

Unterschied 2: Extern getrieben versus Eigendynamik

Die unterschiedlichen Verknüpfungsarchitekturen von Deep Learning und Gehirn spiegeln sich natürlich auch in ihrem dynamischen Verhalten (siehe Bild 3) wider. Im künstlichen neuronalen Netzwerk werden alle Rechenoperationen strikt sequenziell Schicht für Schicht abgearbeitet. Das Netzwerk wird also nur von außen durch die Eingangsdaten angetrieben. Liegen solche nicht vor, dann hat das Netzwerk auch nichts zu tun und bleibt inaktiv.

  • Links: Ein künstliches Neuron ist eine mathematische Operation, nämlich eine nichtlineare Funktion angewandt auf eine gewichtete Summe der Eingangswerte. Rechts: Das biologische Neuron empfängt chemische Signale an seinen Postsynapsen, die es dazu anregen können, einen elektrischen Impuls an seinem Axon entlang zu schicken. Dieses Signal kann über die Präsynapsen wiederum die Postsynapsen anderer Neuronen beeinflussen. (Bild: Helmut Linde)
  • Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)
  • Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)
  • Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.
Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)

Ganz anders ist die Situation im Gehirn, wo die Neuronen ständig aktiv sind und miteinander wechselwirken, selbst wenn gerade keine Sinnesreize von außen ankommen. Tatsächlich stellt die Anregung von Nervenzellen durch äußere Einflüsse nur einen sehr kleinen Teil der Gesamtaktivität dar. Dennoch reicht ihre Wirkung offensichtlich aus, um das Gesamtsystem stark zu beeinflussen und in neue Bahnen zu lenken.

Wenn zum Beispiel ein Fluchttier im Gebüsch die Umrisse eines Räubers auszumachen glaubt, genügen vergleichsweise wenige angeregte Nervenzellen im visuellen System, um das gesamte Gehirn in einen komplett neuen Zustand - den Fluchtmodus - zu versetzen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Neuronale Netze: Biologie, stark vereinfachtLernstrategien und unbekannte Unbekannte 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


mnementh 15. Jul 2022

Du gehst davon aus, dass alle Unfälle vermeidbar sind. Das ist nicht der Fall...

Kaiser Ming 15. Feb 2022

das stimmt, deshalb schrieb ich auch "schliesslich macht das Gehirn auch Fehler die...

Waswei... 15. Feb 2022

Letzteres ist aber ein hinkendes Beispiel, da es zum einen die Absicht dieser Politiker...

Waswei... 15. Feb 2022

Darin ist wohl das assoziative Lernen begründet.



Aktuell auf der Startseite von Golem.de
Warnmeldungen
Rund alle 36 Stunden ein Alarm per Cell Broadcast

Zwischenfazit nach 100 Tagen: Bislang wurden bundesweit 77 Alarmmeldungen per Cell Broadcast übertragen.

Warnmeldungen: Rund alle 36 Stunden ein Alarm per Cell Broadcast
Artikel
  1. Vermona: Zufall und Synthesizer
    Vermona
    Zufall und Synthesizer

    Wie aus einem großen DDR-Staatsbetrieb ein erfolgreicher kleiner Hersteller von analogen Synthies wurde.
    Von Martin Wolf

  2. Digitalisierung: Behörde bekommt weniger Beschwerden über Faxwerbung
    Digitalisierung
    Behörde bekommt weniger Beschwerden über Faxwerbung

    Naht allmählich das Ende der Technologie? Die Bundesnetzagentur hat 2022 viel weniger Beschwerden über Fax-Spam bekommen als im Jahr zuvor.

  3. Ceconomy AG: Media Markt plant offenbar Reparaturabo
    Ceconomy AG
    Media Markt plant offenbar Reparaturabo

    Egal wo die Ware gekauft wurde: Bei Media Markt soll man künftig seine Elektronikgeräte reparieren lassen können - mit einem zweistufigem Abo.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • SanDisk Ultra NVMe 1 TB ab 39,99€ • Samsung 980 1 TB 45€ • MindStar: be quiet! Pure Base 500 69€, MSI MPG B550 Gaming Plus 99,90€, Palit RTX 4070 GamingPro 666€, AMD Ryzen 9 7950X3D 699€ • Corsair DDR4-3600 16 GB 39,90€ • KFA2 RTX 3060 Ti 329,99€ • Kingston Fury 2 TB 129,91€ [Werbung]
    •  /