Hirnforschung und KI: Ein Flirt und sein Ende

Schon früh war klar, dass die relativ einfach gestrickten künstlichen Neuronen erst dann wirklich interessante Leistungen vollbringen können, wenn viele von ihnen in einem Netzwerk verbunden werden. Im Jahre 1956 fand der legendäre Dartmouth Workshop statt, in dem gemeinhin die Geburtsstunde der KI-Forschung als eigenständiges akademisches Fachgebiet gesehen wird.

Die neue Disziplin machte sich hoffnungsvoll mit einem Einsteigerpaket von Methoden ans Werk, das neben den regelbasierten Verfahren der sogenannten symbolischen KI auch schon einfache neuronale Netze enthielt. Letztere wurden in den 50er Jahren unter dem Namen Perzeptron bekannt (PDF), zunächst noch bestehend aus einer überschaubaren Zahl künstlicher Neuronen.

Aus dem Perzeptron entwickelte sich das mehrschichtige neuronale Netz: Die Eingangsdaten werden zunächst von mehreren separaten künstlichen Neuronen der ersten Schicht verarbeitet, die sich als Detektoren für unterschiedliche Muster spezialisiert haben. Deren Ausgabekanäle stellen nun den Input für eine weitere Gruppe von Neuronen in der zweiten Schicht dar, die nun also gewissermaßen Muster von Mustern erkennen.

Deren Ausgabe wird wiederum an die dritte Schicht weitergeleitet und so weiter. Mit jeder zusätzlichen Schicht von Neuronen steigt also die Komplexität der Muster, die erkannt werden können: Im Falle von Bildern werden beispielsweise von Schicht zu Schicht erst kleine Kanten oder Farbflecken identifiziert, dann einfache geometrische Formen und schließlich Gesichter oder andere Objekte.

Wichtig für das Verständnis künstlicher neuronaler Netze ist die Tatsache, dass sie einen Trainingsprozess durchlaufen müssen, bevor sie eine bestimmte Aufgabe lösen können. Dabei werden die Stärken der synaptischen Verbindungen so eingestellt, dass von den einzelnen Neuronen relevante Muster erkannt werden und das Ergebnis - also der Output der letzten Schicht - der zu lösenden Aufgabe entspricht.

In den meisten Fällen wird dafür sogenanntes überwachtes Lernen eingesetzt, das heißt, es existiert ein Datensatz mit Beispielen, für die das jeweilige Problem bereits gelöst wurde. Soll ein neuronales Netz beispielsweise handgeschriebene Ziffern erkennen, so wird eine gewisse Zahl von annotierten Bildern benötigt, zu denen jeweils die korrekte Ziffer maschinenlesbar gespeichert ist.

Die Algorithmen, die solche Sätze von Trainingsdaten in fein abgestimmte Gewichte zwischen den Neuronen verwandeln, stellen das Herzstück des maschinellen Lernens mit neuronalen Netzen dar.

Getrennte Wege

Nach dem kurzen Flirt gegen Mitte des letzten Jahrhunderts entwickelten sich Hirnforschung und künstliche Intelligenz weitgehend unabhängig voneinander weiter - abgesehen davon, dass natürlich Computer wichtige Werkzeuge für Experimente und Simulationen in den Neurowissenschaften sind.

In der Informatik erforschte man unterschiedliche Architekturen, die sich aus künstlichen Neuronen aufbauen lassen, und entwickelte immer ausgefeiltere Algorithmen, um diese Netzwerke erfolgreich zu trainieren. Der Fokus lag dabei üblicherweise mehr auf der praktischen Anwendbarkeit als auf der biologischen Plausibilität der Modelle, so dass sich die künstliche Intelligenz konzeptionell wieder von ihrem biologischen Vorbild entfernte.

Theoretische Schwierigkeiten und die begrenzte Rechenkapazität der verfügbaren Computer ließen die Entwicklung immer wieder ins Stocken kommen, was zu abnehmendem Interesse und damit den KI-Wintern der 1970er und späten 1980er Jahre führte.

Schließlich jedoch ermöglichten die jahrzehntelang exponentiell zunehmende Rechenleistung, insbesondere durch den Einsatz von Grafikkarten und anderer spezialisierter Hardware, sowie massenhaft online verfügbare Trainingsdaten den breiten Einsatz des Deep Learning in der Praxis.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 KI: Der Funke springt überDie Neurowissenschaften kommen schnell voran ... 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Aktuell auf der Startseite von Golem.de
O.MG Cable im Test
Außen USB-Kabel, innen Hackertool

Das O.MG Cable kommt wie ein Standard-USB-Kabel daher. Dass es auch ein Hackertool ist, mit dem sich gruselige Dinge anstellen lassen, sieht man ihm nicht an. Obendrein ist es auch noch leicht zu bedienen.
Ein Test von Moritz Tremmel

O.MG Cable im Test: Außen USB-Kabel, innen Hackertool
Artikel
  1. Defekte Sicherheitsgurte: US-Verkehrsbehörde ermittelt erneut gegen Tesla
    Defekte Sicherheitsgurte
    US-Verkehrsbehörde ermittelt erneut gegen Tesla

    Die US-Behörde NHTSA prüft Beschwerden über nicht ordnungsgemäß montierte Sicherheitsgurte beim Model X von Tesla.

  2. Nachfolger von Windows 11: Weitere Infos zu Windows 12 tauchen auf
    Nachfolger von Windows 11
    Weitere Infos zu "Windows 12" tauchen auf

    Microsoft arbeitet stets weiter an einer neuen Version von Windows. Die wird an einigen Stellen schon jetzt als Windows 12 bezeichnet.

  3. Wissenschaft: Wer soll an den Lithium-Luft-Akku glauben?
    Wissenschaft
    Wer soll an den Lithium-Luft-Akku glauben?

    Forschungsergebnisse zu Akkutechnik sind in Wissenschaftsjournalen, der Wissenschaftskommunikation und Medien zu einer Frage des Vertrauens geworden. Zweifel sind oft angebracht - wie sich aktuell wieder zeigt.
    Von Frank Wunderlich-Pfeiffer

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Nur noch heute: Amazon Frühlingsangebote • MindStar: MSI RTX 4080 1.249€, Powercolor RX 7900 XTX OC 999€ • Fernseher Samsung & Co. bis -43% • Monitore bis -50% • Bosch Prof. bis -59% • Windows Week • Logitech bis -49% • Alexa-Sale bei Amazon • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /