Zum Hauptinhalt Zur Navigation

Google: Kleinste Gemma-KI soll besonders energiesparend sein

Das LLM Gemma 3 270M hat nur 270 Millionen Parameter. Es soll sich deshalb vor allem lokal auf mobilen Geräten nutzen lassen – mit Einschränkungen.
/ Oliver Nickel
7 Kommentare News folgen (öffnet im neuen Fenster)
Gemma 3 270M ist klein verglichen mit anderen Modellen. (Bild: KI-generiert durch Bing Image Creator/GPT-4o)
Gemma 3 270M ist klein verglichen mit anderen Modellen. Bild: KI-generiert durch Bing Image Creator/GPT-4o

Google hat eine neue Version des LLMs Gemma 3 vorgestellt. Gemma 3 270M ist in diesem Fall nicht größer und genauer als die bereits vorhandenen Modelle. Stattdessen bringt der Hersteller ein möglichst kompaktes und einfach zu berechnendes Modell heraus.

Gemma 3 270M arbeitet mit lediglich 270 Millionen Parametern. Bisher konnte das Modell in seiner kleinsten Variante mit einer Milliarde Parametern genutzt werden.

Der Vorteil laut Google: Gemma 3 270M soll möglichst wenig Energie benötigen und sich deshalb etwa für die Nutzung auf Smartphones und anderen mobilen Geräten eignen. Der Hersteller schreibt(öffnet im neuen Fenster) : "Interne Tests mit einem Pixel 9 Pro SoC zeigen, dass das INT4-quantisierte Modell für 25 Unterhaltungen nur 0,75 % des Akkus verbrauchte und damit unser energieeffizientestes Gemma-Modell ist."

Kostenlos herunterladbar

Das Modell wird sich vor allem strikt an Instruktionen halten, aber durch die geringere Komplexität keine langen Unterhaltungen führen können. Google erklärt, dass sich das Modell für spezielle Anwendungsfälle mittels Finetuning gut anpassen lasse. Es soll unter anderem Text klassifizieren und Daten extrahieren können.

Dabei soll es schnell arbeiten. Der Hersteller stellt sich vor, dass so etwa viele Gemma-3B-Modelle parallel laufen und jeweils eine kleine Aufgabe erfüllen können.

Google stellt Gemma 3 270M auf diversen Plattformen zu Verfügung, etwa Hugging Face(öffnet im neuen Fenster) , Kaggle, LM Studio, Docker oder Ollama. Es wird eine vortrainierte und eine bereits auf Aufgaben eingestellte Version veröffentlicht. Durch die geringe Größe dürfte es auf den meisten Geräten lokal ausgeführt werden können, auch wenn der Anbieter Vertex AI als Cloudlösung erwähnt.


Relevante Themen