Gehirn schlägt KI

Ein klarer Hinweis auf die Unterschiedlichkeit von Gehirn und KI ergibt sich aus einem Vergleich ihrer Leistungsfähigkeit. Wie im letzten Artikel beschrieben, ist die biologische Intelligenz ihrer Konkurrenz aus Silizium noch weit voraus, wenn es etwa darum geht, verallgemeinerte Konzepte aus Beobachtungen zu erzeugen, von wenigen Beispielen zu lernen oder einmal gelerntes Wissen auf neue Bereiche zu übertragen. Worin liegen aber die Ursachen für diese Unterschiede?

Stellenmarkt
  1. Wissenschaftliche Mitarbeiterin / Wissenschaftlicher Mitarbeiter (m/w/d) am Lehrstuhl für ... (m/w/d)
    Universität Passau, Passau
  2. Cloud DevOps Engineer (m/w/d)
    OEDIV KG, Bielefeld
Detailsuche

Offensichtlich ist das Substrat in beiden Fällen ein völlig anderes: Das Gehirn als Organ hat sich im Laufe der Evolution gemeinsam mit den darin ablaufenden Algorithmen entwickelt. Seine Hardware und seine Software bilden eine untrennbare Einheit und sind entsprechend gut aufeinander abgestimmt.

Ein Mikrochip andererseits ist zwar sehr flexibel einsetzbar, muss aber gegebenenfalls Prozesse, die im Gehirn auf chemischer oder physikalischer Ebene sozusagen von selbst ablaufen, mühsam Schritt für Schritt simulieren.

So wichtig diese materiellen Grundlagen für technische Kennzahlen wie Rechengeschwindigkeit oder Energieverbrauch jedoch auch sein mögen: Die wirklich entscheidenden Unterschiede sind anderer - nämlich konzeptioneller - Natur.

Unterschied 1: Vorwärtsgerichtet versus rekurrent

Golem Karrierewelt
  1. Jira für Anwender: virtueller Ein-Tages-Workshop
    03.06.2022, virtuell
  2. Container Technologie: Docker und Kubernetes - Theorie und Praxis: virtueller Drei-Tage-Workshop
    04.-07.07.2022, virtuell
Weitere IT-Trainings

In den üblicherweise verwendeten vorwärtsgerichteten neuronalen Netzen schicken die Neuronen ihre Ausgabewerte an die jeweils nächste Schicht weiter, nicht aber an ihre Nachbarn derselben Schicht und erst recht nicht zurück an vorhergehende Schichten (siehe Bild 2). Eine Alternative sind rekurrente Netzwerke, in denen die Information zwischen den Zellen sozusagen auch im Kreis laufen kann.

  • Links: Ein künstliches Neuron ist eine mathematische Operation, nämlich eine nichtlineare Funktion angewandt auf eine gewichtete Summe der Eingangswerte. Rechts: Das biologische Neuron empfängt chemische Signale an seinen Postsynapsen, die es dazu anregen können, einen elektrischen Impuls an seinem Axon entlang zu schicken. Dieses Signal kann über die Präsynapsen wiederum die Postsynapsen anderer Neuronen beeinflussen. (Bild: Helmut Linde)
  • Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)
  • Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)
  • Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.
Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)

Das Long Short-Term Memory (LSTM, Video) ist wohl das bekannteste Beispiel für die Verwendung solcher Architekturen in der Informatik. Die Rückkopplungen im Netzwerk dienen hier vor allem dazu, Informationen aus vorherigen Zeitschritten in den Schleifen des Netzwerkes zwischenzuspeichern.

Entsprechend sind derartige Netzwerke besonders nützlich, um Zeitreihen wie Sprachsignale zu modellieren (wobei sie allerdings zunehmend von den modernen Transformer-Netzwerken verdrängt werden (PDF)).

Das Netzwerk der Nervenzellen im Gehirn ist hingegen fundamental rekurrent aufgebaut: Selbst im schon erwähnten primären visuellen Cortex, der an der Vorverarbeitung visueller Sinneseindrücke beteiligt ist, übermitteln nur rund fünf bis zehn Prozent der anregenden Synapsen Informationen, die über Nervenbahnen mehr oder weniger direkt vom Auge weitergeleitet wurden. Die große Mehrheit der Synapsen hingegen stellt gegenseitige Verknüpfungen innerhalb der Hirnrinde - also rekurrente Verbindungen - dar.

Die Gründe für den hohen Grad an Rekurrenz im biologischen Gehirn sind im Wesentlichen unklar. Sie dürften jedoch weit über das bloße Zwischenspeichern von Information in Netzwerkschleifen wie im LSTM hinausgehen.

Die rekurrente Verschaltung stellt die Neurowissenschaften auch noch vor ein ganz besonderes Rätsel. Wie schon erklärt wäre es naheliegend, gewisse Neuronen im Gehirn als Musterdetektoren zu interpretieren: Zum einen deckt sich dies mit ihrem experimentell beobachteten Feuerverhalten und zum anderen wären solche Musterdetektoren auch als Grundbausteine verschiedener Algorithmen durchaus plausibel.

Doch warum sollten diese Nervenzellen dann in großem Stil von ihren Nachbarn oder von oben - also durch Signale aus höheren Schichten - beeinflusst werden? Man würde vielmehr erwarten, dass ein solcher Detektor es möglichst objektiv und unabhängig melden sollte, wenn sein bevorzugtes Muster in den von außen kommenden Sinnesreizen enthalten ist.

Als Erklärungsansätze für dieses Phänomen gibt es einige algorithmisch interessante Hypothesen, die über die traditionelle Modellierung künstlicher neuronaler Netze hinausgehen. Sie zu beschreiben, würde jedoch den Umfang dieses Artikels sprengen, weshalb wir uns gesondert mit den möglichen Implikationen rekurrenter Verbindungen befassen werden.

Unterschied 2: Extern getrieben versus Eigendynamik

Die unterschiedlichen Verknüpfungsarchitekturen von Deep Learning und Gehirn spiegeln sich natürlich auch in ihrem dynamischen Verhalten (siehe Bild 3) wider. Im künstlichen neuronalen Netzwerk werden alle Rechenoperationen strikt sequenziell Schicht für Schicht abgearbeitet. Das Netzwerk wird also nur von außen durch die Eingangsdaten angetrieben. Liegen solche nicht vor, dann hat das Netzwerk auch nichts zu tun und bleibt inaktiv.

  • Links: Ein künstliches Neuron ist eine mathematische Operation, nämlich eine nichtlineare Funktion angewandt auf eine gewichtete Summe der Eingangswerte. Rechts: Das biologische Neuron empfängt chemische Signale an seinen Postsynapsen, die es dazu anregen können, einen elektrischen Impuls an seinem Axon entlang zu schicken. Dieses Signal kann über die Präsynapsen wiederum die Postsynapsen anderer Neuronen beeinflussen. (Bild: Helmut Linde)
  • Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)
  • Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)
  • Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.
Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)

Ganz anders ist die Situation im Gehirn, wo die Neuronen ständig aktiv sind und miteinander wechselwirken, selbst wenn gerade keine Sinnesreize von außen ankommen. Tatsächlich stellt die Anregung von Nervenzellen durch äußere Einflüsse nur einen sehr kleinen Teil der Gesamtaktivität dar. Dennoch reicht ihre Wirkung offensichtlich aus, um das Gesamtsystem stark zu beeinflussen und in neue Bahnen zu lenken.

Wenn zum Beispiel ein Fluchttier im Gebüsch die Umrisse eines Räubers auszumachen glaubt, genügen vergleichsweise wenige angeregte Nervenzellen im visuellen System, um das gesamte Gehirn in einen komplett neuen Zustand - den Fluchtmodus - zu versetzen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Neuronale Netze: Biologie, stark vereinfachtLernstrategien und unbekannte Unbekannte 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


Kaiser Ming 15. Feb 2022

das stimmt, deshalb schrieb ich auch "schliesslich macht das Gehirn auch Fehler die...

Trollversteher 15. Feb 2022

Weil sie, um es mit einem menschlichen Phänomen zu vergleichen, "Savants", also...

Waswei... 15. Feb 2022

Letzteres ist aber ein hinkendes Beispiel, da es zum einen die Absicht dieser Politiker...

Waswei... 15. Feb 2022

Darin ist wohl das assoziative Lernen begründet.



Aktuell auf der Startseite von Golem.de
Prehistoric Planet
Danke, Apple, für so grandiose Dinosaurier!

Musik von Hans Zimmer, dazu David Attenborough als Sprecher: Apples Prehistoric Planet hat einen Kindheitstraum zum Leben erweckt.
Ein IMHO von Marc Sauter

Prehistoric Planet: Danke, Apple, für so grandiose Dinosaurier!
Artikel
  1. Star Wars: Cal Kestis kämpft in Jedi Survivor weiter
    Star Wars
    Cal Kestis kämpft in Jedi Survivor weiter

    EA hat offiziell den Nachfolger zu Star Wars Jedi Fallen Order angekündigt. Hauptfigur ist erneut Cal Kestis mit seinem Roboterkumpel BD-1.

  2. Fahrgastverband Pro Bahn: Wo das 9-Euro-Ticket sicher gilt
    Fahrgastverband Pro Bahn
    Wo das 9-Euro-Ticket sicher gilt

    Die Farbe der Züge ist entscheidend, was bei der Reiseplanung in der Deutsche-Bahn-App wenig nützt. Dafür laufen Fahrscheinkontrollen ins Leere.

  3. Retro Gaming: Wie man einen Emulator programmiert
    Retro Gaming
    Wie man einen Emulator programmiert

    Warum nicht mal selbst einen Emulator programmieren? Das ist lehrreich und macht Spaß - wenn er funktioniert. Wie es geht, zeigen wir am Gameboy.
    Von Johannes Hiltscher

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PS5 evtl. bestellbar • Prime Video: Filme leihen für 0,99€ • Gigabyte RTX 3080 12GB günstig wie nie: 1.024€ • MSI Gaming-Monitor 32" 4K günstig wie nie: 999€ • Mindstar (u. a. AMD Ryzen 5 5600 179€, Palit RTX 3070 GamingPro 669€) • Days of Play (u. a. PS5-Controller 49,99€) [Werbung]
    •  /