• IT-Karriere:
  • Services:

Deep Learning ersetzt das Feature-Engineering

Deep Learning ist eine Form des Feature-Engineerings mit dem Ziel, Merkmale aus (wenig verarbeiteten) Rohdaten zu lernen. Dazu werden die Rohdaten über mehrere, übereinanderliegende Schichten generalisiert, daher der Begriff Deep Learning. Ein Beispiel: Die Trainingsdaten bestehen aus Fotos/Bildern. Trainiert man ein neuronales Netz mit Bildern von Gesichtern, so werden einzelne Neuronen der ersten verdeckten Schicht maximal aktiv, wenn eine spezielle Kante in dem Foto vorhanden ist. Dies ist gewissermaßen der Schlüsselreiz für die Neuronen der ersten Schicht.

Stellenmarkt
  1. operational services GmbH & Co. KG, Frankfurt am Main, Berlin, München, Zwickau, Dresden
  2. Schaeffler Technologies AG & Co. KG, Herzogenaurach

Die Neuronen der nächsten Schicht sprechen dagegen auf das Vorhandensein von Gesichtsausschnitten an, wie einer Nase oder eines Auges. Die Neuronen der nächsten Schicht wiederum sind maximal aktiv, wenn Prototypen von Gesichtern am Eingang des neuronalen Netzes angelegt werden. Es wird eine Merkmalshierarchie gelernt, wobei höhere Schichten abstrakteren, höherwertigeren Merkmalen entsprechen.

So wird auch klar, warum die Entscheidungsfunktion auf den höheren Repräsentationen einfacher ist. Ist beispielsweise ein Neuron der 3. Schicht, das für einen Gesichtsprototyp steht, aktiv, so bedeutet dies, dass ein Gesicht auf dem Bild zu sehen ist. Müsste eine Entscheidung auf den Aktivitäten der 1. Neuronenschicht durchgeführt werden, so ist das deutlich schwieriger, da spezielle Kantenkombinationen als Gesicht erkannt werden müssen.

Woher kommt das Grundprinzip des Deep Learning?

Die Grundidee, Merkmale hierarchisch über viele Schichten zu lernen, kommt unter anderem aus den kognitiven Wissenschaften: So konnte schon vor langem gezeigt werden, dass im visuellen Kortex die von den Augen aufgenommene Information schichtweise verarbeitet und in höhere Repräsentationen überführt wird. Auch im visuellen Kortex des Gehirns sind die Neuronen schichtweise angeordnet. In höheren Schichten werden die Schlüsselreize auch immer komplexer.

In der Vergangenheit konnten neuronale Netze mit vielen verdeckten Schichten nicht richtig lernen. Unter anderem waren die Datenmengen zu klein und die Rechenleistung war zu gering. Daher wurden in der Praxis meist nur neuronale Netze mit nur einer verdeckten Schicht und sehr wenigen Neuronen eingesetzt. Dies änderte sich erst im Jahre 2006, als Forscher um Professor Geoffrey Hinton, Toronto, einen Trainingsalgorithmus vorstellten, mit dem schichtweise Merkmalstransformationen gelernt werden können. Diese Veröffentlichung löste ein erneutes starkes Interesse an neuronalen Netzen in der Forschungscommunity aus.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Tiefes Lernen über mehrere SchichtenWoran derzeit geforscht wird 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7. 6
  8. 7
  9. 8
  10.  


Anzeige
Spiele-Angebote
  1. (-5%) 9,49€
  2. (u. a. Assassin's Creed Odyssey für 17,99€, Assassin's Creed Origins für 11€, Far Cry: New...
  3. (-67%) 6,66€
  4. 4,69€

kahmann 29. Okt 2015

Der Artikel hat mir gut gefallen. Nicht zuletzt auch, weil er sehr tief in die Materie...

jg (Golem.de) 15. Okt 2015

Jetzt müssten endlich auch mobil alle Bilder zu sehen sein!

natsan2k 08. Okt 2015

Schöner und interessanter Artikel.

Anonymer Nutzer 08. Okt 2015

Tatsächlich hat Siri was mit lernen zutun - oder genauer mit Training. Die verwendete...

jg (Golem.de) 07. Okt 2015

Vielen Dank für das Lob, wir freuen uns!


Folgen Sie uns
       


Tesla-Baustelle in Grünheide - Eindrücke (März 2020)

Golem.de hat im März 2020 die Baustelle der Tesla-Fabrik in Grünheide besucht und Drohnenaufnahmen vom aktuellen Stand des Großprojekts gedreht.

Tesla-Baustelle in Grünheide - Eindrücke (März 2020) Video aufrufen
    •  /