Abo
  • Services:
Anzeige
Deep Learning basiert auf der Funktionsweise menschlicher Nervenzellen.
Deep Learning basiert auf der Funktionsweise menschlicher Nervenzellen. (Bild: Jan Homann/CC BY-SA 3.0)

Wie funktioniert das Lernen mit neuronalen Netzwerken?

Sowohl die Merkmalstransformationen als auch die Klassenentscheidung werden bei neuronalen Netzen durch die Beobachtung der Daten gelernt. Für unser Beispiel erfolgt der Lernvorgang für die Aufgabe der Klassenzuordnung von Bildern. Zuerst wird ein Bild am Eingang des neuronalen Netzes angelegt und der Ausgangswert berechnet. Aus der Differenz zwischen dem Ausgang und der gewünschten Klasse lässt sich ein Fehler(wert) berechnen.

Anzeige

Dieser Fehler hängt von sogenannten Gewichten der Neuronen (siehe Abbildung 1) ab, denn sie bestimmen den Ausgangswert.

  • Abbildung 1 (Bild: Christian Herta)
  • Abbildung 2 (Bild: Christian Herta)
Abbildung 1 (Bild: Christian Herta)

Abbildung 1: Ein Neuron als kleinste Recheneinheit eines neuronalen Netzes: Es wird die Summe der gewichteten Eingabewerte x1, x2, ... xn berechnet, d. h., jeder Eingabewert xi wird zuerst mit einem Gewicht wi multipliziert, bevor alle Eingabewerte aufsummiert werden.

Abbildung 2: Anschließend wird eine Aktivierungsfunktion (Schwellenwertfunktion) σ auf die gewichtete Summe angewendet. Falls die gewichtete Summe größer als der Schwellwert (hier im Beispiel 0,75) ist, liegt am Ausgang des Neurons eine 1 (aktiv) an. Falls die gewichtete Summe kleiner ist, ist das Neuron dagegen inaktiv. Der Ausgang hat dann den Wert 0. Dies ist ein Beispiel für eine harte Aktivierungsfunktion (blau). In Grün ist eine weichere Aktivierungsfunktion dargestellt.

Ein Gewicht ist sozusagen die Wertschätzung oder Wahrscheinlichkeit, die das neuronale Netzwerk der Beobachtung eines Neuronen zuordnet. Beim Lernen werden nun die Gewichte so angepasst, dass der Fehler kleiner wird, indem der Ausgangswert sich dem gewünschten Zielwert für alle Trainingsbeispiele annähert (siehe Abbildung 9).

  • Abbildung 9 (Bild: Christian Herta)
Abbildung 9 (Bild: Christian Herta)

Abbildung 9: Vereinfachte Darstellung einer Merkmalstransformation für zwei Merkmale und drei Klassen. Im ursprünglichen Merkmalsraum haben wir eine komplizierte Abbildungsfunktion der Merkmale auf die Klassen. Nach der Transformation sind die Datenpunkte der unterschiedlichen Klassen im Raum durch einfache gerade Trennlinien (im allgemeinen Hyperebenen) voneinander abgegrenzt.

Das Lernen wurde so als ein mathematisch lösbares Optimierungsproblem formuliert.

Für unser Beispiel der drei Klassen codiert man die Zielklasse mit drei Ausgangsneuronen o1, o2 und o3. Jedes Ausgangsneuron entspricht dann einer Klasse. o1 steht beispielsweise für die Landschaftsaufnahme, o2 für Porträts und o3 für die Tieraufnahmen. Wird ein Porträtfoto am Eingang angelegt, ist der Wunschzielwert der Ausgangsneuronen: o1=0; o2=1; o3=0; in Vektorform (0,1,0). Die Ausgangsneuronen des neuronalen Netzes haben typischerweise eine Aktivierungsfunktion, die Wahrscheinlichkeiten für die Klassen angeben.

Ist der Ausgang z. B. (0.3, 0.45, 0.25), so bedeutet dies, dass das neuronale Netz folgende Wahrscheinlichkeiten berechnet: 30 Prozent für die Klasse Landschaftsaufnahme, 45 Prozent für die Klasse Porträt und 25 Prozent für die Klasse Tieraufnahme.

Der Fehler ergibt sich dann aus der Differenz zwischen der Einschätzung des neuronalen Netzes für die Zielklasse zur gewünschten Zielwahrscheinlichkeit 100 Prozent. Da die Einschätzung des neuronalen Netzes für die Zielklasse Porträt 45 Prozent beträgt, ist die Differenz 100 Prozent - 45 Prozent = 55 Prozent.

Beim Lernen werden nun die Neuronengewichte so modifiziert, dass der Fehlerwert von 55 Prozent erniedrigt wird. Das heißt, dass die Wahrscheinlichkeit für die Zielklasse Porträtfoto erhöht werden soll. Beim Anlegen dieses Fotos soll sie größer als die bisherigen 45 Prozent sein. Ein wichtiger Algorithmus für diese Anpassung der Gewichte ist Backpropagation.

Dabei wird effizient berechnet, wie stark die einzelnen Neuronengewichte geändert werden müssen, um den Fehler zu reduzieren.

 Wissen repräsentieren und generalisierenWarum ist das Lernen neuronaler Netze so schwierig? 

eye home zur Startseite
kahmann 29. Okt 2015

Der Artikel hat mir gut gefallen. Nicht zuletzt auch, weil er sehr tief in die Materie...

jg (Golem.de) 15. Okt 2015

Jetzt müssten endlich auch mobil alle Bilder zu sehen sein!

natsan2k 08. Okt 2015

Schöner und interessanter Artikel.

attitudinized 08. Okt 2015

Tatsächlich hat Siri was mit lernen zutun - oder genauer mit Training. Die verwendete...

jg (Golem.de) 07. Okt 2015

Vielen Dank für das Lob, wir freuen uns!



Anzeige

Stellenmarkt
  1. Dentsply Sirona, The Dental Solutions Company, Bens­heim
  2. Gebr. Bode GmbH & Co. KG, Kassel
  3. ENERCON GmbH, Aurich
  4. dSPACE GmbH, Paderborn, Wolfsburg, Böblingen, Pfaffenhofen


Anzeige
Top-Angebote
  1. (Kaufen und Leihen)
  2. (u. a. LG 24UD58-B 24"-UHD-Monitor mit FreeSync für 279,00€)
  3. 279,00€ (Vergleichspreis 319€)

Folgen Sie uns
       


  1. Festnetz

    O2 will in Deutschland letzte Meile per Funk überwinden

  2. Robocar

    Roborace präsentiert Roboterboliden

  3. Code.mil

    US-Militär sucht nach Lizenz für externe Code-Beiträge

  4. Project Zero

    Erneut ungepatchter Microsoft-Bug veröffentlicht

  5. Twitch

    Videostreamer verdienen am Spieleverkauf

  6. Neuer Mobilfunk

    Telekom-Chef nennt 5G-Ausbau "sehr teuer"

  7. Luftfahrt

    Nasa testet Überschallpassagierflugzeug im Windkanal

  8. Lenovo

    Moto Mod macht Moto Z zum Spiele-Handheld

  9. Alternatives Betriebssystem

    Jolla will Sailfish OS auf Sony-Smartphones bringen

  10. Gamesbranche

    PC-Plattform ist bei Spielentwicklern am beliebtesten



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Nintendo Switch eingeschaltet: Zerstückelte Konsole und gigantisches Handheld
Nintendo Switch eingeschaltet
Zerstückelte Konsole und gigantisches Handheld
  1. Nintendo Interner Speicher von Switch offenbar schon jetzt zu klein
  2. Hybridkonsole Leak zeigt Menüs der Nintendo Switch
  3. Hybridkonsole Hardware-Details von Nintendo Switch geleakt

Watch 2 im Hands on: Huaweis neue Smartwatch soll bis zu 21 Tage lang durchhalten
Watch 2 im Hands on
Huaweis neue Smartwatch soll bis zu 21 Tage lang durchhalten
  1. Lenovo-Tab-4-Serie Lenovos neue Android-Tablets kosten ab 180 Euro
  2. Yoga 520 und 720 USB-C und Kaby Lake für Lenovos Falt-Notebooks
  3. Alcatel A5 LED im Hands on Wenn die Smartphone-Rückseite wild blinkt

Asus Tinker Board im Test: Buntes Lotterielos rechnet schnell
Asus Tinker Board im Test
Buntes Lotterielos rechnet schnell
  1. Tinker-Board Asus bringt Raspberry-Pi-Klon
  2. Sopine A64 Weiterer Bastelrechner im Speicherriegel-Format erscheint

  1. Re: GEIL! Wenn das Keyboard kommt...

    HibikiTaisuna | 21:41

  2. Re: Das Elektroautos schnell sein können...

    cpt.dirk | 21:37

  3. Re: Die Dreckschleuder Google

    ocm | 21:35

  4. Vielleicht selber schuld?

    DerDy | 21:35

  5. Das Interface das Sie ansprechen heißt...

    Kubax | 21:31


  1. 18:18

  2. 17:56

  3. 17:38

  4. 17:21

  5. 17:06

  6. 16:32

  7. 16:12

  8. 15:33


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel