Machine Learning: Facebooks KI-Chef sucht neue Sprache für Deep Learning

Der KI-Chef von Facebook möchte die aktuelle Herangehensweise an Deep-Learning-Probleme gern völlig neu denken. Dazu gehört eine Programmiersprache, die effizienter ist als Python, ebenso wie neue Hardware, die nicht nur Matrizen multipliziert.

Artikel veröffentlicht am ,
Facebooks KI-Chef Yann Lecun sucht nach neuen Ansätzen für Deep-Learning.
Facebooks KI-Chef Yann Lecun sucht nach neuen Ansätzen für Deep-Learning. (Bild: Facebook)

Der Auftakt zur diesjährigen International Solid-State Circuits Conference (ISSCC) ist ein historischer Abriss von Facebooks KI-Chef Yann Lecun (PDF), der zusätzlich zu einem Rückblick auf Jahrzehnte von Forschungsarbeit auch über die Zukunft von Deep-Learning-Problemen nachdenkt. Dabei kommt der Forscher zu dem Schluss, dass sich einiges an der bisherigen Vorgehensweise und den Ansätzen zur algorithmischen Umsetzung ändern muss.

Stellenmarkt
  1. SAP Solution Architekt (m/w/d)
    über duerenhoff GmbH, Pforzheim
  2. DevOps Engineer (w/m/d)
    Dataport, verschiedene Standorte
Detailsuche

Dazu gehöre etwa, dass zum Deep Learning eine effizientere Programmiersprache nötig sein könnte, wie Venturebeat berichtet. Bisher werden die meisten Frameworks in diesem Bereich wie zum Beispiel Googles Tensorflow oder Facebooks Pytorch in Python geschrieben. Laut Lecun suchen derzeit aber Google, Facebook und auch andere nach einer kompilierten Sprache, mit der Deep-Learning-Algorithmen effizienter umgesetzt werden können.

Lecun selbst weist aber auch darauf hin, dass dies ein sehr schwierig umzusetzender Schritt sein könnte. Immerhin sei überhaupt nicht klar, ob die Community aus Forschern und Entwicklern diesem Weg überhaupt folgen würde, da "die Leute einfach Python benutzen möchten". Einer Untersuchung von Github zufolge sind Python und bestimmte Python-Pakete derzeit die beliebtesten Werkzeuge für Deep Learning.

Neue Hardware braucht die Community

Lecun ist sich darüber hinaus auch sicher, dass der Bedarf für spezialisierte Hardware, die Deep-Learning-Aufgaben übernimmt, künftig weiter ansteigen wird, wie es im KI-Blog von Facebook heißt. Allerdings verändern sich auch die Algorithmen, die für Deep Learning genutzt werden, teilweise grundsätzlich im Vergleich zu bisherigen Ansätzen.

Golem Karrierewelt
  1. Adobe Premiere Pro Grundkurs: virtueller Zwei-Tage-Workshop
    19./20.01.2023, Virtuell
  2. IPv6 Grundlagen: virtueller Zwei-Tage-Workshop
    19./20.12.2022, virtuell
Weitere IT-Trainings

"Möglicherweise müssen wir deshalb die Art und Weise neu erfinden, wie wir Arithmetik in Schaltkreisen durchführen", sagt Lecun zu diesem Problem. Derzeit seien Unternehmen größtenteils abhängig von dem Zulieferer Nvidia zum Beschleunigen der Algorithmen oder darauf angewiesen, eigene Hardware zu gestalten wie etwa Google mit seinen TPU. Dem Magazin ZDnet bestätigte Lecun außerdem, dass auch Facebook intern an eigener Hardware zum Beschleunigen der Berechnungen arbeite, auch wenn er keine Details dazu nennen wollte.

Derzeit werden die Deep-Learning-Aufgaben und -Berechnungen meist auf einfache Matrix-Multiplikationen zurückgeführt, die sich etwa in GPUs sehr schnell ausführen lassen. Mit den TPUs von Google oder den Tensor-Einheiten von Nvidias Modulen für autonome Fahrzeuge wird davon auch massiv Gebrauch gemacht.

Mit Bezug auf dieses Vorgehen sagte Lecun: "Ich denke nicht, dass das die Antwort ist". Was dann aber als Ersatz dienen könnte, weiß auch der Forscher selbst nicht und lagert die Umsetzung einfach aus. "Ich denke, dass die echten Hardware-Genies neue Wege finden müssen, um diese Dinge zu tun".

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


LRU 20. Feb 2019

Verstehe auch nicht, was an C/C++ verkehrt sein soll. Für effiziente Ressourcen-Nutzung...

Frostwind 19. Feb 2019

Matlab kostet. Matlab ist teilweise richtig schlecht. Matlab ist auch nicht besser als R...

schap23 19. Feb 2019

Julia ist so einfach zu benutzen wie Python, aber in mathematischen Berechnung meist...



Aktuell auf der Startseite von Golem.de
Urheberrechtsverletzung
US-Marine muss Strafe an deutsche Firma bezahlen

Noch während der Lizenzverhandlungen installierte die US-Marine eine Software auf über 500.000 Rechnern. Sechs Jahre später muss sie dafür bezahlen.

Urheberrechtsverletzung: US-Marine muss Strafe an deutsche Firma bezahlen
Artikel
  1. Karmesin und Purpur: Nintendo entschuldigt sich für Probleme mit Pokémon
    Karmesin und Purpur
    Nintendo entschuldigt sich für Probleme mit Pokémon

    Schwache Grafik und trotzdem Ruckler: Viele Spieler ärgern sich über den technischen Zustand von Pokémon Karmesin/Purpur.

  2. Bayern: Arbeitszeit von mehr als 10 Stunden am Tag gefordert
    Bayern
    Arbeitszeit von mehr als 10 Stunden am Tag gefordert

    Die bayerische Arbeitsministerin plädiert für mehr Flexibilität am Arbeitsplatz und will mehr als zehn Stunden Arbeit pro Tag erlauben.

  3. EuGH: Google legt erneut Einspruch gegen Milliardenstrafe ein
    EuGH
    Google legt erneut Einspruch gegen Milliardenstrafe ein

    Google will keine 4,125 Milliarden Euro zahlen und zieht mit dem Fall vor den Europäischen Gerichthof. Es geht um Android.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • PS5 jetzt bestellbar • LG OLED TV (2022) 55" 120Hz 949€ • Mindstar: Geforce RTX 4080 1.449€ • Tiefstpreise: G.Skill 32GB Kitt DDR5-7200 • 351,99€ Crucial SSD 4TB 319€, HTC Vive Pro 2 659€ • Samsung Cyber Week • Top-TVs (2022) LG & Samsung über 40% günstiger [Werbung]
    •  /