Machine Learning: Facebook übersetzt schneller und besser als Google

Ein neues System zur maschinellen Übersetzung von Facebook liefert leicht bessere Ergebnisse als das bisher beste von Google und ist dabei sogar noch schneller. Anders als Google stellt Facebook den Code und die Trainingsdaten frei zur Verfügung.

Artikel veröffentlicht am ,
Auch Facebook arbeitet an maschineller Übersetzung.
Auch Facebook arbeitet an maschineller Übersetzung. (Bild: Jimmy Baikovicius/Flickr.com/CC-BY-SA 2.0)

Wegen der vielen Kniffe und Eigenheiten natürlicher Sprache sind maschinelle Übersetzungen teilweise sehr schlecht. Im vergangenen Herbst hat Google schließlich ein neues Modell zur Übersetzung vorgestellt, das so gut war, dass Google dieses direkt in seine Webdienste integriert hat. Auch Facebook ist sehr stark an derartigen Systemen interessiert und stellt nun ein Modell vor, das jenes von Google in den zwei entscheidenden Punkten Qualität und Geschwindigkeit schlägt.

Stellenmarkt
  1. Produktmanager Enterprise IAM Services (m/w/d)
    Helios IT Service GmbH, Berlin-Buch
  2. Service Delivery Manager (m/w/d)
    operational services GmbH & Co. KG, Wolfsburg
Detailsuche

Googles Neural Machine Translation (GNMT) nutzt zur Übersetzung ein rekurrentes neuronales Netz (RNN), das sehr häufig für Sprach- und Textaufgaben genutzt wird. Das neue System von Facebook basiert hingegen auf einem sogenannten Convolutional Neural Network (CNN), das besonders oft in der Bilderkennung genutzt wird. Diese Entscheidung hat einen inhärenten technischen Vorteil für Facebook.

Besser und schneller dank Parallelisierung

Denn die Umsetzung eines CNN lässt sich extrem gut parallelisieren und damit sehr schnell auf GPUs ausführen. RNNs hingegen modellieren ein Art Rückkanal, um auf bereits verarbeitete Informationen zurückzugreifen. Letzteres macht diese zwar langsamer, sorgte bisher aber für einen teils sehr deutlichen Qualitätsvorteil bei der Sprachverarbeitung und eben auch der Übersetzung, was Facebook nun aber offenbar durchbrochen hat.

Das ergibt sich zumindest aus Daten, die das Unternehmen als Teil seiner Forschungsarbeit veröffentlicht hat. Demnach schneidet das Modell in standardisierten Übersetzungstests für die Sprachpaare Englisch-Französisch, Englisch-Deutsch und Englisch-Rumänisch nach formalen Bewertungskriterien leicht besser ab als GNMT oder andere RNNs.

Pragmatismus bei Facebook, interessante Tricks bei Google

Golem Akademie
  1. Einführung in die Programmierung mit Rust
    21.-24. September 2021, online
  2. Elastic Stack Fundamentals - Elasticsearch, Logstash, Kibana, Beats
    26. - 28. Oktober 2021, online
  3. OpenShift Installation & Administration
    9.-11. August 2021, online
Weitere IT-Trainings

Aus rein praktischen Erwägungen heraus gibt sich Facebook zudem sehr überzeugt von seinem Modell. Denn bei ungefähr gleicher Qualität, wie sie sehr gute RNNs aufweisen, benötige das CNN von Facebook in der Trainingsphase halb so viel GPU-Rechenzeit wie GNMT. Die Inference-Phase von Facebooks CNN, also hier das Übersetzen eines unbekannten Satzes mit Hilfe des trainierten Modells, sei bei einer Betrachtung der verfügbaren CPU-Kerne sogar 17-mal so schnell wie GNMT.

Facebook folgert daraus, dass sein System wohl viel besser über sehr viele Sprachen skalieren werde als bisherige Ansätze mit RNNs. Das gelte insbesondere deshalb, weil Geschwindigkeitsoptimierungen für CNNs in dem aktuellen System von Facebook kaum vorgenommen worden seien. Zusätzlich dazu sei vor allem das Verständnis der komplexen Abhängigkeiten der Modelldaten in einem CNN wesentlich einfacher nachzuvollziehen als bei einem RNN.

Google löst das Geschwindigkeitsproblem seines GNMT vor allem durch die Anwendung seines selbst entwickelten Chips, dem sogenannten TPU, der allein für die Verwendung mit neuronalen Netzen entwickelt wurde. Darüber hinaus vermeidet Google das Skalierungsproblem für die Übersetzung sehr vieler Sprachpaare durch sogenannte "Zero-Shot"-Übersetzungen. Hierbei wird das GNMT so modifiziert, dass auch Übersetzungen mit Hilfe bereits bestehender anderer Sprachpaare erzeugt werden können.

Facebook stellt den Code seiner Arbeiten sowie bereits trainierte Modelle auf Github unter einer BSD-Lizenz frei zur Verfügung.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Victorian Big Battery
Tesla-Speicher brannte vier Tage lang

Viel Aufwand war nötig, um das brennende Akku-Modul zu löschen.

Victorian Big Battery: Tesla-Speicher brannte vier Tage lang
Artikel
  1. Windows 365: Der mietbare Cloud-PC mit Windows kann bestellt werden
    Windows 365
    Der mietbare Cloud-PC mit Windows kann bestellt werden

    Microsoft startet mit Windows 365 und gibt Preise für den Cloud-PC bekannt. Die VMs sollen wie physische Windows-PCs funktionieren.

  2. Android: Googles Tensor-SoC ist eine halbe Mogelpackung
    Android
    Googles Tensor-SoC ist eine halbe Mogelpackung

    Für seinen ersten eigenen Smartphone-Chip liefert Google ausschließlich Erwartbares und dämpft damit sämtliche Hoffnungen an besseren Support und gute Linux-Treiber.
    Ein IMHO von Sebastian Grüner

  3. Apple-Tastatur: Magic Keyboard mit Touch ID jetzt ohne iMac erhältlich
    Apple-Tastatur
    Magic Keyboard mit Touch ID jetzt ohne iMac erhältlich

    Apple verkauft das Magic Keyboard mit Fingerabdruckscanner Touch ID nun auch einzeln - mit und ohne Ziffernblock.


Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Schnäppchen • Speicherwoche bei Saturn Samsung • C27RG54FQU, 27 Zoll, curved 203,55€ • Bosch Professional Werkzeuge und Messtechnik • Samsung Galaxy Vorbesteller-Aktion • Speicherwoche bei Media Markt • 15% auf Xiaomi-Technik • Hisense UHD-Fernseher • Saturn: 1 Produkt zahlen, 2 erhalten [Werbung]
    •  /