Abo
  • Services:
Anzeige
Deep Learning basiert auf der Funktionsweise menschlicher Nervenzellen.
Deep Learning basiert auf der Funktionsweise menschlicher Nervenzellen. (Bild: Jan Homann/CC BY-SA 3.0)

Deep Learning ersetzt das Feature-Engineering

Deep Learning ist eine Form des Feature-Engineerings mit dem Ziel, Merkmale aus (wenig verarbeiteten) Rohdaten zu lernen. Dazu werden die Rohdaten über mehrere, übereinanderliegende Schichten generalisiert, daher der Begriff Deep Learning. Ein Beispiel: Die Trainingsdaten bestehen aus Fotos/Bildern. Trainiert man ein neuronales Netz mit Bildern von Gesichtern, so werden einzelne Neuronen der ersten verdeckten Schicht maximal aktiv, wenn eine spezielle Kante in dem Foto vorhanden ist. Dies ist gewissermaßen der Schlüsselreiz für die Neuronen der ersten Schicht.

Anzeige

Die Neuronen der nächsten Schicht sprechen dagegen auf das Vorhandensein von Gesichtsausschnitten an, wie einer Nase oder eines Auges. Die Neuronen der nächsten Schicht wiederum sind maximal aktiv, wenn Prototypen von Gesichtern am Eingang des neuronalen Netzes angelegt werden. Es wird eine Merkmalshierarchie gelernt, wobei höhere Schichten abstrakteren, höherwertigeren Merkmalen entsprechen.

So wird auch klar, warum die Entscheidungsfunktion auf den höheren Repräsentationen einfacher ist. Ist beispielsweise ein Neuron der 3. Schicht, das für einen Gesichtsprototyp steht, aktiv, so bedeutet dies, dass ein Gesicht auf dem Bild zu sehen ist. Müsste eine Entscheidung auf den Aktivitäten der 1. Neuronenschicht durchgeführt werden, so ist das deutlich schwieriger, da spezielle Kantenkombinationen als Gesicht erkannt werden müssen.

Woher kommt das Grundprinzip des Deep Learning?

Die Grundidee, Merkmale hierarchisch über viele Schichten zu lernen, kommt unter anderem aus den kognitiven Wissenschaften: So konnte schon vor langem gezeigt werden, dass im visuellen Kortex die von den Augen aufgenommene Information schichtweise verarbeitet und in höhere Repräsentationen überführt wird. Auch im visuellen Kortex des Gehirns sind die Neuronen schichtweise angeordnet. In höheren Schichten werden die Schlüsselreize auch immer komplexer.

In der Vergangenheit konnten neuronale Netze mit vielen verdeckten Schichten nicht richtig lernen. Unter anderem waren die Datenmengen zu klein und die Rechenleistung war zu gering. Daher wurden in der Praxis meist nur neuronale Netze mit nur einer verdeckten Schicht und sehr wenigen Neuronen eingesetzt. Dies änderte sich erst im Jahre 2006, als Forscher um Professor Geoffrey Hinton, Toronto, einen Trainingsalgorithmus vorstellten, mit dem schichtweise Merkmalstransformationen gelernt werden können. Diese Veröffentlichung löste ein erneutes starkes Interesse an neuronalen Netzen in der Forschungscommunity aus.

 Tiefes Lernen über mehrere SchichtenWoran derzeit geforscht wird 

eye home zur Startseite
kahmann 29. Okt 2015

Der Artikel hat mir gut gefallen. Nicht zuletzt auch, weil er sehr tief in die Materie...

jg (Golem.de) 15. Okt 2015

Jetzt müssten endlich auch mobil alle Bilder zu sehen sein!

natsan2k 08. Okt 2015

Schöner und interessanter Artikel.

attitudinized 08. Okt 2015

Tatsächlich hat Siri was mit lernen zutun - oder genauer mit Training. Die verwendete...

jg (Golem.de) 07. Okt 2015

Vielen Dank für das Lob, wir freuen uns!



Anzeige

Stellenmarkt
  1. Stadtwerke München GmbH, München
  2. GreenIT Das Systemhaus GmbH, Dortmund
  3. fluid Operations AG, Walldorf
  4. SSI Schäfer Automation GmbH, Giebelstadt bei Würzburg


Anzeige
Top-Angebote
  1. (u. a. Warcraft: The Beginning, Fast & Furious 7, Fast & Furious 6, Jurassic World, Gladiator und...
  2. 59,90€ (Vergleichspreis ca. 79€)
  3. 529€ + 1,99€ Versand oder Abholung im Markt

Folgen Sie uns
       


  1. RT-AC86U

    Asus-Router priorisiert Gaming-Pakete und kann 1024QAM

  2. CDN

    Cloudflare bietet lokale TLS-Schlüssel und mehr DDoS-Schutz

  3. Star Trek Discovery angeschaut

    Star Trek - Eine neue Hoffnung

  4. Gemeinde Egelsbach

    Telekom-Glasfaser in Gewerbegebiet findet schnell Kunden

  5. Microsoft

    Programme für Quantencomputer in Visual Studio entwickeln

  6. Arbeitsspeicher

    DDR5 nutzt Spannungsversorgung auf dem Modul

  7. Video-Pass

    Auch Vodafone führt Zero-Rating-Angebot ein

  8. Vernetztes Fahren

    Stiftung Warentest kritisiert Datenschnüffelei bei Auto-Apps

  9. Ransomware

    Redboot stoppt Windows-Start und kann nicht entschlüsseln

  10. Dan Cases C4-H2O

    9,5-Liter-Gehäuse mit 240-mm-Radiator



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Bundestagswahl 2017: Ein Hoffnungsschimmer für die Netzpolitik
Bundestagswahl 2017
Ein Hoffnungsschimmer für die Netzpolitik
  1. Bundestagswahl 2017 Union und SPD verlieren, Jamaika-Koalition rückt näher
  2. Störerhaftung abgeschafft Bundesrat stimmt für WLAN-Gesetz mit Netzsperrenanspruch
  3. Merkel im Bundestag "Wir wollen nicht im Technikmuseum enden"

Inspiron 5675 im Test: Dells Ryzen-Gaming-PC reicht mindestens bis 2020
Inspiron 5675 im Test
Dells Ryzen-Gaming-PC reicht mindestens bis 2020
  1. Android 8.0 im Test Fertig oder nicht fertig, das ist hier die Frage
  2. Logitech Powerplay im Test Die niemals leere Funk-Maus
  3. Polar vs. Fitbit Duell der Schlafexperten

Anki Cozmo im Test: Katze gegen Roboter
Anki Cozmo im Test
Katze gegen Roboter
  1. Die Woche im Video Apple, Autos und ein grinsender Affe

  1. Re: OT: Wann wird vom neuen iMac Pro berichtet? kT

    budweiser | 16:35

  2. Re: und O2 hat den All-Pass mit 1Mbit Bremse aber...

    ckerazor | 16:35

  3. Re: Netzneutralität eindeutig verletzt!!!

    Eopia | 16:34

  4. Re: Dann genügt doch ein simples MBR Backup, oder?

    ArcherV | 16:32

  5. Re: Netzneutralität

    Rolf Schreiter | 16:31


  1. 16:44

  2. 16:33

  3. 16:02

  4. 15:20

  5. 14:46

  6. 14:05

  7. 13:48

  8. 12:57


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel