Lernstrategien und unbekannte Unbekannte
Es gibt noch weitere wichtige Unterschiede zwischen KI und Gehirn.
Unterschied 3: Lernstrategien
Angesichts der strukturellen Unterschiede zwischen KI und Gehirn ist es wenig überraschend, dass auch die Lernprozesse deutlich voneinander abweichen (siehe Bild 4). Beim "überwachten Lernen", das typischerweise beim Deep Learning zum Einsatz kommt, wird das neuronale Netz auf einen sehr großen Satz von Trainingsdaten angewandt, für die das gewünschte Ergebnis des Algorithmus bereits bekannt ist. Jede Abweichung zwischen der Ausgabe des Netzwerkes und dem gewünschten Ergebnis wird genutzt, um die Verbindungen zwischen den Neuronen noch besser einzustellen.
Üblicherweise kommt dafür der sogenannte Backpropagation-Algorithmus zum Einsatz (Video), der die Fehler ausgehend von der Ausgabeschicht durch das Netzwerk in die vorhergehenden Schichten zurückwirken lässt, um dort die synaptischen Gewichte genauer einzustellen.
Von der überwiegenden Mehrheit der Hirnforscher wird ein solcher Algorithmus allerdings als nicht biologisch plausibel angesehen. Er widerspricht auch unserer Alltagserfahrung: Ein Kind lernt nicht, Objekte zu erkennen, indem seine Eltern ihm eine große Anzahl von Beispielen zeigen und jeweils den Namen dazu nennen. Es bemerkt vielmehr von sich aus, dass es Ähnlichkeiten zwischen verschiedenen Gegenständen gibt, die es in seiner Umgebung oder auf bildlichen Darstellungen wahrnimmt. Es verallgemeinert solche Beobachtungen selbstständig zu Konzepten von verschiedenen Dingen aus seiner Erfahrungswelt.
Einen solchen Vorgang, bei dem Beobachtungen ohne äußere Anleitung in Kategorien eingeteilt werden, bezeichnet man als unüberwachtes Lernen. Wenn das Kind von anderen Menschen dann ein Wort als Namen für dieses Konzept lernt, so kann man dies möglicherweise als überwachtes Lernen ansehen, es macht aber in jedem Falle den kleineren Teil des Lernprozesses aus.
Der Prozess des unüberwachten Lernens ist also eng verbunden mit der Fähigkeit, von Beobachtungen zu abstrahieren und verallgemeinerte Konzepte zu bilden - eine der größten Stärken des Gehirns im Vergleich zur KI. Wie dieser Vorgang im Detail funktioniert, ist jedoch unbekannt.
Eine wichtige Rolle dürfte dabei die schon 1949 von Donald Hebb postulierte Lernregel spielen. Sie besagt, dass zwei Neuronen ihre gegenseitige Verbindung umso mehr stärken, je häufiger sie gleichzeitig feuern. Die Folgen dieser Regel sind im Hirngewebe nachweisbar: Die Vernetzung von Neuronen bildet die statistischen Korrelationen der natürlichen Sinnesreize nach.
So sind zum Beispiel zwei Neuronen, die auf kleine Kanten im Sichtfeld reagieren, besonders stark vernetzt, wenn diese Kanten auf einer gemeinsamen Linie liegen. Ob und wie dieser faszinierende Zusammenhang algorithmisch genutzt wird, ist jedoch höchstens ansatzweise verstanden.
Unterschied 4: Die unbekannten Unbekannten
Schließlich haben die Neurowissenschaften im Gehirn noch eine Vielzahl weiterer Phänomene entdeckt: Neuronen kommen in unterschiedlichen Typen vor, ihre Aktivität oszilliert in bestimmten Rhythmen (Alpha-, Beta und Gammawellen), Aktivität kann sich wellenartig entlang der Hirnrinde ausbreiten, gewisse Gruppen von Neuronen koordinieren ihr Feuern zeitlich präzise, die gesamte Dynamik wird von chemischen Botenstoffen beeinflusst und vieles, vieles mehr.
Von den meisten dieser Effekte ist nicht bekannt, inwieweit sie eine algorithmische Funktion haben. Oder sind sie technisch notwendig, um den reibungslosen Betrieb des Apparats aufrechtzuerhalten? Vielleicht handelt es sich bei manchen davon auch schlicht um irrelevante Nebenprodukte der Abläufe im Gehirn.
Es ist noch nicht einmal klar, wie das Gehirn Informationen darstellt - was also das Gegenstück zu den Nullen und Einsen im Computer ist. Anzunehmen ist, dass das Feuern der Neuronen eine zentrale Rolle spielt.
Aber hat es eine spezielle Bedeutung, wenn ein Neuron schnell hintereinander mehrmals feuert oder die einzelnen Entladungen einen gewissen Zeitverzug zum Rhythmus der Nervenzellen in der Umgebung aufweisen? Spielt die Stärke einer Entladung eine Rolle? Bisher kann wohl niemand diese Fragen mit Sicherheit beantworten.
Das Gehirn verfügt also noch über viele Freiheitsgrade, die es möglicherweise für Berechnungen nutzt und deren Bedeutung wir bisher nicht kennen. Umso mehr ist zu erwarten, dass die Grundprinzipien seiner Funktionsweise noch weit über das hinausgehen, was im heutigen Deep Learning nachgeahmt wird.
Die Suche geht weiter
Insgesamt gibt es also noch weitreichende konzeptionelle Unterschiede zwischen künstlicher und natürlicher Intelligenz. Die überlegenen Leistungen des Gehirns sollten uns Menschen ein Ansporn sein, seine Funktionsweise noch genauer zu untersuchen und vor allem unser Verständnis seiner algorithmischen Prinzipien zu erweitern.
Doch ist das überhaupt möglich oder ist das Gehirn so komplex, dass Menschen es niemals verstehen werden? Angesichts der Vielzahl unterschiedlicher Phänomene, ihres komplexen Zusammenspiels und der schieren Anzahl von Verknüpfungen zwischen Milliarden von Nervenzellen erscheint dies denkbar.
Doch es gibt Hoffnung - dank einer Vermutung, die der bedeutende Hirnforscher Vernon Mountcastle schon Ende der 1970er Jahre äußerte und für die es ernstzunehmende experimentelle Indizien gibt. Laut der Vermutung kann das Gehirn mit sehr ähnlichen algorithmischen Prinzipien völlig unterschiedliche Probleme wie Bilderkennung, Spracherkennung oder Bewegungssteuerung lösen. Sollte es gelingen, diese Prinzipien auch nur teilweise zu entschlüsseln, könnte dies die Inspiration für eine völlig neue Generation von KI-Algorithmen werden.
Helmut Linde leitete verschiedene Data-Science-Teams in deutschen Konzernen und ist nun bei der Covestro AG für die Digitalisierung von Forschung und Entwicklung verantwortlich. Als Mathematiker und Physiker ist er fasziniert von naturwissenschaftlichen Themen sowie der Anwendung und der Zukunft der künstlichen Intelligenz.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Gehirn schlägt KI |
Du gehst davon aus, dass alle Unfälle vermeidbar sind. Das ist nicht der Fall...
das stimmt, deshalb schrieb ich auch "schliesslich macht das Gehirn auch Fehler die...
Letzteres ist aber ein hinkendes Beispiel, da es zum einen die Absicht dieser Politiker...
Darin ist wohl das assoziative Lernen begründet.