Lernstrategien und unbekannte Unbekannte

Es gibt noch weitere wichtige Unterschiede zwischen KI und Gehirn.

Unterschied 3: Lernstrategien

Stellenmarkt
  1. Senior Software Developer (m/w / divers)
    Eurowings Aviation GmbH, Köln
  2. IT-Systembetreuerin/IT-Syste- mbetreuer (m/w/d)
    FFG Fahrzeugwerkstätten Falkenried GmbH, Hamburg
Detailsuche

Angesichts der strukturellen Unterschiede zwischen KI und Gehirn ist es wenig überraschend, dass auch die Lernprozesse deutlich voneinander abweichen (siehe Bild 4). Beim "überwachten Lernen", das typischerweise beim Deep Learning zum Einsatz kommt, wird das neuronale Netz auf einen sehr großen Satz von Trainingsdaten angewandt, für die das gewünschte Ergebnis des Algorithmus bereits bekannt ist. Jede Abweichung zwischen der Ausgabe des Netzwerkes und dem gewünschten Ergebnis wird genutzt, um die Verbindungen zwischen den Neuronen noch besser einzustellen.

  • Links: Ein künstliches Neuron ist eine mathematische Operation, nämlich eine nichtlineare Funktion angewandt auf eine gewichtete Summe der Eingangswerte. Rechts: Das biologische Neuron empfängt chemische Signale an seinen Postsynapsen, die es dazu anregen können, einen elektrischen Impuls an seinem Axon entlang zu schicken. Dieses Signal kann über die Präsynapsen wiederum die Postsynapsen anderer Neuronen beeinflussen. (Bild: Helmut Linde)
  • Die künstliche Intelligenz wird dominiert von vorwärtsgerichteten Netzwerken, bei denen Information Schicht für Schicht verarbeitet wird, aber nicht innerhalb einer Schicht oder "rückwärts" laufen kann. Das Gehirn hingegen ist hauptsächlich geprägt von rekurrenten Verbindungen (blaue Pfeile). (Quelle: Helmut Linde)
  • Künstliche neuronale Netze sind "inputgetrieben", d.h. jede Neuronenaktivität wird direkt oder indirekt über andere Neuronen als Zwischenschritte von den Eingangsdaten verursacht. Das Gehirn hingegen ist ständig aktiv, auch in Abwesenheit von äußeren Reizen. Impulse, die aus Sinnesorganen kommend über Nervenbahnen das Gehirn erreichen, beeinflussen dessen Dynamik, erzeugen sie aber nicht. (Quelle: Helmut Linde)
  • Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.
Deep Learning beruht hauptsächlich auf überwachtem Lernen mit dem sogenannten Backpropagation-Algorithmus, der im Falle fehlerhafter Ausgaben kleine Korrekturen durch das Netzwerk zurücklaufen lässt, was allerdings von Hirnforschern größtenteils als nicht biologisch plausibel angesehen wird. Im Gehirn dürfte unüberwachtes Lernen entsprechend der Hebbschen Regel eine wesentliche Rolle spielen. Dabei stärken Neuronen ihre gegenseitige Verbindung immer dann, wenn sie gleichzeitig aktiviert werden.

Üblicherweise kommt dafür der sogenannte Backpropagation-Algorithmus zum Einsatz (Video), der die Fehler ausgehend von der Ausgabeschicht durch das Netzwerk in die vorhergehenden Schichten zurückwirken lässt, um dort die synaptischen Gewichte genauer einzustellen.

Von der überwiegenden Mehrheit der Hirnforscher wird ein solcher Algorithmus allerdings als nicht biologisch plausibel angesehen. Er widerspricht auch unserer Alltagserfahrung: Ein Kind lernt nicht, Objekte zu erkennen, indem seine Eltern ihm eine große Anzahl von Beispielen zeigen und jeweils den Namen dazu nennen. Es bemerkt vielmehr von sich aus, dass es Ähnlichkeiten zwischen verschiedenen Gegenständen gibt, die es in seiner Umgebung oder auf bildlichen Darstellungen wahrnimmt. Es verallgemeinert solche Beobachtungen selbstständig zu Konzepten von verschiedenen Dingen aus seiner Erfahrungswelt.

Golem Akademie
  1. Automatisierung (RPA) mit Python: virtueller Zwei-Tage-Workshop
    11./12.07.2022, Virtuell
  2. Java EE 8 Komplettkurs: virtueller Fünf-Tage-Workshop
    20.-24.06.2022, virtuell
Weitere IT-Trainings

Einen solchen Vorgang, bei dem Beobachtungen ohne äußere Anleitung in Kategorien eingeteilt werden, bezeichnet man als unüberwachtes Lernen. Wenn das Kind von anderen Menschen dann ein Wort als Namen für dieses Konzept lernt, so kann man dies möglicherweise als überwachtes Lernen ansehen, es macht aber in jedem Falle den kleineren Teil des Lernprozesses aus.

Der Prozess des unüberwachten Lernens ist also eng verbunden mit der Fähigkeit, von Beobachtungen zu abstrahieren und verallgemeinerte Konzepte zu bilden - eine der größten Stärken des Gehirns im Vergleich zur KI. Wie dieser Vorgang im Detail funktioniert, ist jedoch unbekannt.

Eine wichtige Rolle dürfte dabei die schon 1949 von Donald Hebb postulierte Lernregel spielen. Sie besagt, dass zwei Neuronen ihre gegenseitige Verbindung umso mehr stärken, je häufiger sie gleichzeitig feuern. Die Folgen dieser Regel sind im Hirngewebe nachweisbar: Die Vernetzung von Neuronen bildet die statistischen Korrelationen der natürlichen Sinnesreize nach.

So sind zum Beispiel zwei Neuronen, die auf kleine Kanten im Sichtfeld reagieren, besonders stark vernetzt, wenn diese Kanten auf einer gemeinsamen Linie liegen. Ob und wie dieser faszinierende Zusammenhang algorithmisch genutzt wird, ist jedoch höchstens ansatzweise verstanden.

Unterschied 4: Die unbekannten Unbekannten

Schließlich haben die Neurowissenschaften im Gehirn noch eine Vielzahl weiterer Phänomene entdeckt: Neuronen kommen in unterschiedlichen Typen vor, ihre Aktivität oszilliert in bestimmten Rhythmen (Alpha-, Beta und Gammawellen), Aktivität kann sich wellenartig entlang der Hirnrinde ausbreiten, gewisse Gruppen von Neuronen koordinieren ihr Feuern zeitlich präzise, die gesamte Dynamik wird von chemischen Botenstoffen beeinflusst und vieles, vieles mehr.

Von den meisten dieser Effekte ist nicht bekannt, inwieweit sie eine algorithmische Funktion haben. Oder sind sie technisch notwendig, um den reibungslosen Betrieb des Apparats aufrechtzuerhalten? Vielleicht handelt es sich bei manchen davon auch schlicht um irrelevante Nebenprodukte der Abläufe im Gehirn.

Es ist noch nicht einmal klar, wie das Gehirn Informationen darstellt - was also das Gegenstück zu den Nullen und Einsen im Computer ist. Anzunehmen ist, dass das Feuern der Neuronen eine zentrale Rolle spielt.

Aber hat es eine spezielle Bedeutung, wenn ein Neuron schnell hintereinander mehrmals feuert oder die einzelnen Entladungen einen gewissen Zeitverzug zum Rhythmus der Nervenzellen in der Umgebung aufweisen? Spielt die Stärke einer Entladung eine Rolle? Bisher kann wohl niemand diese Fragen mit Sicherheit beantworten.

Das Gehirn verfügt also noch über viele Freiheitsgrade, die es möglicherweise für Berechnungen nutzt und deren Bedeutung wir bisher nicht kennen. Umso mehr ist zu erwarten, dass die Grundprinzipien seiner Funktionsweise noch weit über das hinausgehen, was im heutigen Deep Learning nachgeahmt wird.

Die Suche geht weiter

Insgesamt gibt es also noch weitreichende konzeptionelle Unterschiede zwischen künstlicher und natürlicher Intelligenz. Die überlegenen Leistungen des Gehirns sollten uns Menschen ein Ansporn sein, seine Funktionsweise noch genauer zu untersuchen und vor allem unser Verständnis seiner algorithmischen Prinzipien zu erweitern.

Doch ist das überhaupt möglich oder ist das Gehirn so komplex, dass Menschen es niemals verstehen werden? Angesichts der Vielzahl unterschiedlicher Phänomene, ihres komplexen Zusammenspiels und der schieren Anzahl von Verknüpfungen zwischen Milliarden von Nervenzellen erscheint dies denkbar.

Doch es gibt Hoffnung - dank einer Vermutung, die der bedeutende Hirnforscher Vernon Mountcastle schon Ende der 1970er Jahre äußerte und für die es ernstzunehmende experimentelle Indizien gibt. Laut der Vermutung kann das Gehirn mit sehr ähnlichen algorithmischen Prinzipien völlig unterschiedliche Probleme wie Bilderkennung, Spracherkennung oder Bewegungssteuerung lösen. Sollte es gelingen, diese Prinzipien auch nur teilweise zu entschlüsseln, könnte dies die Inspiration für eine völlig neue Generation von KI-Algorithmen werden.

Helmut Linde leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun bei der Covestro AG für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Gehirn schlägt KI
  1.  
  2. 1
  3. 2
  4. 3
  5. 4


Kaiser Ming 15. Feb 2022

das stimmt, deshalb schrieb ich auch "schliesslich macht das Gehirn auch Fehler die...

Trollversteher 15. Feb 2022

Weil sie, um es mit einem menschlichen Phänomen zu vergleichen, "Savants", also...

Waswei... 15. Feb 2022

Letzteres ist aber ein hinkendes Beispiel, da es zum einen die Absicht dieser Politiker...

Waswei... 15. Feb 2022

Darin ist wohl das assoziative Lernen begründet.



Aktuell auf der Startseite von Golem.de
Cariad
Aufsichtsrat greift bei VWs Softwareentwicklung durch

Die Sorge um die Volkswagen-Softwarefirma Cariad hat den Aufsichtsrat veranlasst, ein überarbeitetes Konzept für die ehrgeizigen Pläne vorzulegen.

Cariad: Aufsichtsrat greift bei VWs Softwareentwicklung durch
Artikel
  1. Delfast Top 3.0: Ukrainische Armee setzt E-Motorräder zur Panzerjagd ein
    Delfast Top 3.0
    Ukrainische Armee setzt E-Motorräder zur Panzerjagd ein

    Ukrainische Infanteristen nutzen E-Motorräder, um leise und schnell zum Einsatz zu gelangen und die Panzerabwehrlenkwaffe NLAW zu transportieren.

  2. Überwachung: Polizei setzt Handy-Erkennungskamera gegen Autofahrer ein
    Überwachung
    Polizei setzt Handy-Erkennungskamera gegen Autofahrer ein

    In Rheinland-Pfalz werden Handynutzer am Steuer eines Autos automatisch erkannt. Dazu wird das System Monocam aus den Niederlanden genutzt.

  3. Love, Death + Robots 3: Mal spannend, mal tragisch, mal gelungen, mal nicht so
    Love, Death + Robots 3
    Mal spannend, mal tragisch, mal gelungen, mal nicht so

    Die abwechslungsreichste Science-Fiction-Serie unserer Zeit ist wieder da - mit acht neuen Folgen der von David Fincher produzierten Anthologie-Reihe.
    Von Peter Osteried

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Borderlands 3 gratis • CW: Top-Rabatte auf PC-Komponenten • Inno3D RTX 3070 günstig wie nie: 614€ • Ryzen 9 5900X 398€ • Top-Laptops zu Tiefpreisen • Edifier Lautsprecher 129€ • Kingston SSD 2TB günstig wie nie: 129,90€ • Samsung Soundbar + Subwoofer günstig wie nie: 228,52€ [Werbung]
    •  /