Abo
  • Services:

Deep Learning ersetzt das Feature-Engineering

Deep Learning ist eine Form des Feature-Engineerings mit dem Ziel, Merkmale aus (wenig verarbeiteten) Rohdaten zu lernen. Dazu werden die Rohdaten über mehrere, übereinanderliegende Schichten generalisiert, daher der Begriff Deep Learning. Ein Beispiel: Die Trainingsdaten bestehen aus Fotos/Bildern. Trainiert man ein neuronales Netz mit Bildern von Gesichtern, so werden einzelne Neuronen der ersten verdeckten Schicht maximal aktiv, wenn eine spezielle Kante in dem Foto vorhanden ist. Dies ist gewissermaßen der Schlüsselreiz für die Neuronen der ersten Schicht.

Stellenmarkt
  1. Bosch Gruppe, Abstatt
  2. CURRENTA GmbH & Co. OHG, Leverkusen

Die Neuronen der nächsten Schicht sprechen dagegen auf das Vorhandensein von Gesichtsausschnitten an, wie einer Nase oder eines Auges. Die Neuronen der nächsten Schicht wiederum sind maximal aktiv, wenn Prototypen von Gesichtern am Eingang des neuronalen Netzes angelegt werden. Es wird eine Merkmalshierarchie gelernt, wobei höhere Schichten abstrakteren, höherwertigeren Merkmalen entsprechen.

So wird auch klar, warum die Entscheidungsfunktion auf den höheren Repräsentationen einfacher ist. Ist beispielsweise ein Neuron der 3. Schicht, das für einen Gesichtsprototyp steht, aktiv, so bedeutet dies, dass ein Gesicht auf dem Bild zu sehen ist. Müsste eine Entscheidung auf den Aktivitäten der 1. Neuronenschicht durchgeführt werden, so ist das deutlich schwieriger, da spezielle Kantenkombinationen als Gesicht erkannt werden müssen.

Woher kommt das Grundprinzip des Deep Learning?

Die Grundidee, Merkmale hierarchisch über viele Schichten zu lernen, kommt unter anderem aus den kognitiven Wissenschaften: So konnte schon vor langem gezeigt werden, dass im visuellen Kortex die von den Augen aufgenommene Information schichtweise verarbeitet und in höhere Repräsentationen überführt wird. Auch im visuellen Kortex des Gehirns sind die Neuronen schichtweise angeordnet. In höheren Schichten werden die Schlüsselreize auch immer komplexer.

In der Vergangenheit konnten neuronale Netze mit vielen verdeckten Schichten nicht richtig lernen. Unter anderem waren die Datenmengen zu klein und die Rechenleistung war zu gering. Daher wurden in der Praxis meist nur neuronale Netze mit nur einer verdeckten Schicht und sehr wenigen Neuronen eingesetzt. Dies änderte sich erst im Jahre 2006, als Forscher um Professor Geoffrey Hinton, Toronto, einen Trainingsalgorithmus vorstellten, mit dem schichtweise Merkmalstransformationen gelernt werden können. Diese Veröffentlichung löste ein erneutes starkes Interesse an neuronalen Netzen in der Forschungscommunity aus.

 Tiefes Lernen über mehrere SchichtenWoran derzeit geforscht wird 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7. 6
  8. 7
  9. 8
  10.  


Anzeige
Hardware-Angebote
  1. (reduzierte Überstände, Restposten & Co.)

kahmann 29. Okt 2015

Der Artikel hat mir gut gefallen. Nicht zuletzt auch, weil er sehr tief in die Materie...

jg (Golem.de) 15. Okt 2015

Jetzt müssten endlich auch mobil alle Bilder zu sehen sein!

natsan2k 08. Okt 2015

Schöner und interessanter Artikel.

attitudinized 08. Okt 2015

Tatsächlich hat Siri was mit lernen zutun - oder genauer mit Training. Die verwendete...

jg (Golem.de) 07. Okt 2015

Vielen Dank für das Lob, wir freuen uns!


Folgen Sie uns
       


Lenovo Thinkpad X1 Extreme - Test

Das X1 Extreme zeigt, dass auch größere Thinkpads gute Geräte sind. Es ist gerade in produktiven Anwendungen sehr flott und bringt die gewohnte Tastatur-Trackpoint-Kombination mit. Einziger Kritikpunkt: die träge Kühlleistung.

Lenovo Thinkpad X1 Extreme - Test Video aufrufen
Gaming-Tastaturen im Test: Neue Switches für Gamer und Tipper
Gaming-Tastaturen im Test
Neue Switches für Gamer und Tipper

Corsair und Roccat haben neue Gaming-Tastaturen auf den Markt gebracht, die sich vor allem durch ihre Switches auszeichnen. Im Test zeigt sich, dass Roccats Titan Switch besser zum normalen Tippen geeignet ist, aber nicht an die Geschwindigkeit des Corsair-exklusiven Cherry-Switches herankommt.
Ein Test von Tobias Költzsch

  1. Azio RCK Retrotastatur wechselt zwischen Mac und Windows-Layout
  2. OLKB Planck im Test Winzig, gerade, programmierbar - gut!
  3. Alte gegen neue Model M Wenn die Knickfedern wohlig klackern

Requiem zur Cebit: Es war einmal die beste Messe
Requiem zur Cebit
Es war einmal die beste Messe

Nach 33 Jahren ist Schluss mit der Cebit und das ist mehr als schade. Wir waren dabei, als sie noch nicht nur die größte, sondern auch die beste Messe der Welt war - und haben dann erlebt, wie Trends verschlafen wurden. Ein Nachruf.
Von Nico Ernst

  1. IT-Messe Die Cebit wird eingestellt

Sony-Kopfhörer WH-1000XM3 im Test: Eine Oase der Stille oder des puren Musikgenusses
Sony-Kopfhörer WH-1000XM3 im Test
Eine Oase der Stille oder des puren Musikgenusses

Wir haben die dritte Generation von Sonys Top-ANC-Kopfhörer getestet - vor allem bei der Geräuschreduktion hat sich einiges getan. Wer in lautem Getümmel seine Ruhe haben will, greift zum WH-1000XM3. Alle Nachteile der Vorgängermodelle hat Sony aber nicht behoben.
Ein Test von Ingo Pakalski


      •  /