Hirnforschung und KI: Ein Flirt und sein Ende
Schon früh war klar, dass die relativ einfach gestrickten künstlichen Neuronen erst dann wirklich interessante Leistungen vollbringen können, wenn viele von ihnen in einem Netzwerk verbunden werden. Im Jahre 1956 fand der legendäre Dartmouth Workshop statt, in dem gemeinhin die Geburtsstunde der KI-Forschung als eigenständiges akademisches Fachgebiet gesehen wird.
Die neue Disziplin machte sich hoffnungsvoll mit einem Einsteigerpaket von Methoden ans Werk, das neben den regelbasierten Verfahren der sogenannten symbolischen KI auch schon einfache neuronale Netze enthielt. Letztere wurden in den 50er Jahren unter dem Namen Perzeptron bekannt (PDF), zunächst noch bestehend aus einer überschaubaren Zahl künstlicher Neuronen.
Aus dem Perzeptron entwickelte sich das mehrschichtige neuronale Netz: Die Eingangsdaten werden zunächst von mehreren separaten künstlichen Neuronen der ersten Schicht verarbeitet, die sich als Detektoren für unterschiedliche Muster spezialisiert haben. Deren Ausgabekanäle stellen nun den Input für eine weitere Gruppe von Neuronen in der zweiten Schicht dar, die nun also gewissermaßen Muster von Mustern erkennen.
Deren Ausgabe wird wiederum an die dritte Schicht weitergeleitet und so weiter. Mit jeder zusätzlichen Schicht von Neuronen steigt also die Komplexität der Muster, die erkannt werden können: Im Falle von Bildern werden beispielsweise von Schicht zu Schicht erst kleine Kanten oder Farbflecken identifiziert, dann einfache geometrische Formen und schließlich Gesichter oder andere Objekte.
Wichtig für das Verständnis künstlicher neuronaler Netze ist die Tatsache, dass sie einen Trainingsprozess durchlaufen müssen, bevor sie eine bestimmte Aufgabe lösen können. Dabei werden die Stärken der synaptischen Verbindungen so eingestellt, dass von den einzelnen Neuronen relevante Muster erkannt werden und das Ergebnis - also der Output der letzten Schicht - der zu lösenden Aufgabe entspricht.
In den meisten Fällen wird dafür sogenanntes überwachtes Lernen eingesetzt, das heißt, es existiert ein Datensatz mit Beispielen, für die das jeweilige Problem bereits gelöst wurde. Soll ein neuronales Netz beispielsweise handgeschriebene Ziffern erkennen, so wird eine gewisse Zahl von annotierten Bildern benötigt, zu denen jeweils die korrekte Ziffer maschinenlesbar gespeichert ist.
Die Algorithmen, die solche Sätze von Trainingsdaten in fein abgestimmte Gewichte zwischen den Neuronen verwandeln, stellen das Herzstück des maschinellen Lernens mit neuronalen Netzen dar.
Getrennte Wege
Nach dem kurzen Flirt gegen Mitte des letzten Jahrhunderts entwickelten sich Hirnforschung und künstliche Intelligenz weitgehend unabhängig voneinander weiter - abgesehen davon, dass natürlich Computer wichtige Werkzeuge für Experimente und Simulationen in den Neurowissenschaften sind.
In der Informatik erforschte man unterschiedliche Architekturen, die sich aus künstlichen Neuronen aufbauen lassen, und entwickelte immer ausgefeiltere Algorithmen, um diese Netzwerke erfolgreich zu trainieren. Der Fokus lag dabei üblicherweise mehr auf der praktischen Anwendbarkeit als auf der biologischen Plausibilität der Modelle, so dass sich die künstliche Intelligenz konzeptionell wieder von ihrem biologischen Vorbild entfernte.
Theoretische Schwierigkeiten und die begrenzte Rechenkapazität der verfügbaren Computer ließen die Entwicklung immer wieder ins Stocken kommen, was zu abnehmendem Interesse und damit den KI-Wintern der 1970er und späten 1980er Jahre führte.
Schließlich jedoch ermöglichten die jahrzehntelang exponentiell zunehmende Rechenleistung, insbesondere durch den Einsatz von Grafikkarten und anderer spezialisierter Hardware, sowie massenhaft online verfügbare Trainingsdaten den breiten Einsatz des Deep Learning in der Praxis.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
KI: Der Funke springt über | Die Neurowissenschaften kommen schnell voran ... |
Schließe mich dem Lob an, äußerst interessanter Artikel!
Eine pauschalisierte Aussage, Neuronen sind nicht viel anders, als Transistoren, haben...