TranslateGemma: Google öffnet seine Übersetzungs-KI

Google hat Translategemma vorgestellt(öffnet im neuen Fenster) , eine neue Modellreihe für maschinelle Übersetzung auf Basis der Gemma-3-Architektur. Die drei Modellgrößen – 4B, 12B und 27B Parameter – richten sich an unterschiedliche Einsatzszenarien und Hardwareanforderungen.
Das Ziel von Google ist es, Entwicklern und Forschern Übersetzungswerkzeuge bereitzustellen, die flexibel einsetzbar sind.
Zweistufiges Training für bessere Qualität
Translategemma nutzt laut Hersteller einen zweistufigen Trainingsansatz. In der ersten Phase erfolgt Feintuning mit Daten, die sowohl menschliche Übersetzungen als auch synthetische Übersetzungen von Gemini-Modellen umfassen. Die zweite Phase setzt Reinforcement Learning(öffnet im neuen Fenster) ein, wobei Belohnungsmodelle wie MetricX-QE(öffnet im neuen Fenster) und AutoMQM die Ausgabequalität verfeinern sollen.
Laut Googles Evaluierung(öffnet im neuen Fenster) übertrifft die 12B-Version das Basis-Gemma-3-27B-Modell im WMT24++-Benchmark für Übersetzungen(öffnet im neuen Fenster) . Die Modelle erzielen laut Google gute Ergebnisse bei geringen Rechenanforderungen. Die 4B-Version eignet sich angeblich sogar für mobile Anwendungen – das Modell könnte auf einem Smartphone laufen.
Breite Sprachabdeckung mit gleichbleibender Qualität
Google testete TranslateGemma am WMT24++-Datensatz für einen Übersetzungsbenchmark, der 55 Sprachen aus verschiedenen Sprachfamilien abdeckt.
Google habe geringere Fehlerquoten im Vergleich zum Basis-Gemma-Modell über alle getesteten Sprachen hinweg feststellen können.
Zusätzlich zu den 55 Kernsprachen trainierte Google die Modelle auf rund 500 weiteren Sprachpaaren. Ergebnisse für diese erweiterten Sprachpaare veröffentlichte das Unternehmen bisher nicht.
Einsatzszenarien für unterschiedliche Hardware
Das 4B-Modell ist für mobile Geräte konzipiert. Die 12B-Version zielt auf Notebooks und lokale Entwicklungsumgebungen ab. Das 27B-Modell benötigt leistungsfähigere Hardware: Google gibt an, dass es auf einer einzelnen H100-GPU oder TPU in Cloudumgebungen läuft.
Google positioniert Translategemma als Basismodell, das Forscher für spezifische Sprachpaare oder Anwendungsfälle feinabstimmen können.
Die Modelle sind über Googles AI Studio verfügbar und können von Kaggle und Hugging Face(öffnet im neuen Fenster) heruntergeladen werden.



