Codegemma: Neue offene KI-Modelle sollen besser mit Code umgehen können

Die KI-Community Hugging Face hat ein neues Sprachmodell vorgestellt, das sich auf die Generation und Ergänzung von Code spezialisiert. Codegemma(öffnet im neuen Fenster) ist ein offizieller Google-Release von Gemma, dem offenen KI-Modell des Unternehmens . Insgesamt gibt es drei Versionen von Codegemma mit unterschiedlichen Spezialisierungen und Parametern.
Das 2-Milliarden-Parameter-Modell soll für Code-Vervollständigungen und -Generation genutzt werden können. Es soll praktisch sein, wenn es unter anderem auf schnelle Reaktionen und kurze Latenzen ankommt. Hier hat ein kleineres Modell mögliche Vorteile.
Ein zweites Modell mit 7 Milliarden Parametern wird stattdessen für die Verarbeitung natürlicher Sprache und Code-Vervollständigung genutzt. Es wurde zu 20 Prozent für Ersteres und zu 80 Prozent für Letzteres trainiert.
Besser als größere Modelle?
Das dritte Modell Codegemma Instruct mit ebenfalls 7 Milliarden Parametern soll als Chatbot fungieren und mit Usern über diverse Coding-Themen reden können. Außerdem soll das Modell bei mathematischen Funktionen und anderen logischen Themen helfen können.
Codegemma kann unter anderem über das Hugging-Face-Tool Transformers verwendet werden. Sie sind mit der Version 4.39 nutzbar. Die Modelle können zudem in Zusammenhang mit der Google-Cloud verwendet werden. Dazu wird Googles Framework Vertex AI oder Google Kubernetes genutzt.
Hugging Face gibt zudem einige Benchmark-Werte bekannt. Das 7-Milliarden-Parameter-Modell soll leistungstechnisch auf einem Niveau mit wesentlich komplexeren Modellen wie etwa Code Llama 13B oder Starcoder 2 15B liegen. In einigen Tasks sind die Codegemma-Modelle sogar etwas besser, da sie speziell für den Umgang mit Programmiersprachen ausgelegt wurden.



