Zum Hauptinhalt Zur Navigation

Apache-Lizenz: Google Gemma 4 in vier Modellgrößen veröffentlicht

Google veröffentlicht die vierte Generation seiner quelloffenen KI-Modellfamilie Gemma – mit erweitertem Funktionsumfang und einer neuen Lizenz.
/ Andreas Donath
Kommentare News folgen (öffnet im neuen Fenster)
Gemma 4 ist da. (Bild: Google)
Gemma 4 ist da. Bild: Google

Gemma 4 ist da(öffnet im neuen Fenster) . Kurz vor dem Osterwochenende hat Google seine neuen Open-Weight-Modelle veröffentlicht. Das sind KI-Sprachmodelle, deren trainierte Gewichte öffentlich zugänglich sind und lokal betrieben werden können, im Gegensatz zu rein cloudbasierten Diensten wie Gemini.

Mit Gemma 4 wechselt Google auf die Apache-2.0-Lizenz und räumt damit einen der größten Kritikpunkte an der bisherigen Reihe aus dem Weg: Die frühere Gemma-Lizenz hatte kommerzielle Deployments für viele Organisationen erheblich erschwert.

Vier Modelle, zwei Zielgruppen

Die neue Generation umfasst vier Varianten(öffnet im neuen Fenster) : das 26B-Mixture-of-Experts-Modell und ein 31B-Dense-Modell für leistungsstarke Hardware sowie die Edge-optimierten Varianten E2B und E4B für Smartphones, Raspberry-Pi-Boards und ähnliche Geräte. Das 31B-Modell belegt laut Google aktuell Platz drei auf dem Arena-AI-Leaderboard für offene Modelle, das 26B-Modell Platz sechs – wobei sich diese Einordnung im Alltagsbetrieb noch beweisen muss.

Die größeren Modelle sind auf eine einzelne Nvidia-H100-GPU ausgelegt, quantisierte Versionen sollen auch auf Consumer-Hardware laufen. Das 26B-MoE-Modell aktiviert beim Inferenz nur 3,8 Milliarden seiner Parameter – was laut Google gegenüber vergleichbar großen Dense-Modellen spürbar schnellere Token-Generierung bringt. Die Edge-Varianten entstanden in Zusammenarbeit mit Googles Pixel-Team, Qualcomm und Mediatek.

Apache 2.0 als entscheidende Weichenstellung

Die frühere Gemma-Lizenz hatte kommerzielle Deployments für viele Organisationen erschwert. Apache 2.0 gibt Entwicklern nun deutlich breitere Rechte bei Nutzung, Modifikation und Distribution – ein Schritt, der die praktische Einsetzbarkeit grundlegend verändert, wenn man Google glaubt.

Alle vier Modelle unterstützen multimodale Eingaben mit Bild und Video, die Edge-Modelle zusätzlich Audio. Die Kontextfenster reichen von 128.000 Token bei den Edge-Varianten bis zu 256.000 Token bei den größeren Modellen. Strukturierte JSON-Ausgabe und Function-Calling sind modellübergreifend enthalten. Trainiert wurde über mehr als 140 Sprachen hinweg.

Die Modelle sind ab sofort über Hugging Face(öffnet im neuen Fenster) , Kaggle(öffnet im neuen Fenster) und Ollama(öffnet im neuen Fenster) verfügbar, mit direkter Kompatibilität für vLLM, llama.cpp, MLX und Keras.

Google gibt in seinem Blogpost(öffnet im neuen Fenster) an, dass Gemma-Modelle seit dem Start der ersten Generation über 400 Millionen Mal heruntergeladen wurden und die Community mehr als 100.000 Modellvarianten erstellte. Ob Gemma 4 diesen Schwung fortsetzt, wird die praktische Nutzung in den kommenden Wochen zeigen.


Relevante Themen