Zum Hauptinhalt Zur Navigation

Open-Source: Alibaba zeigt leistungsstarkes neues Qwen3-Modell

Alibaba hat eine überarbeitete Version des Qwen3-Modells vorgestellt, die Konkurrenten übertrifft und dabei weniger Rechenleistung benötigt.
/ Andreas Donath
11 Kommentare News folgen (öffnet im neuen Fenster)
Die Denkmaschinen kommen. (Bild: Andreas Donath)
Die Denkmaschinen kommen. Bild: Andreas Donath

Der chinesische Konzern Alibaba hat eine erweiterte Version seines Qwen3-Sprachmodells(öffnet im neuen Fenster) vorgestellt und verschärft damit den Wettbewerb im Bereich der Open-Source-KI-Systeme. Das berichtete Venturebeat(öffnet im neuen Fenster) .

Das neue Qwen3-235B-A22B-2507-Instruct-Modell zeigt in ersten Benchmarks(öffnet im neuen Fenster) eine überlegene Leistung gegenüber mehreren etablierten Konkurrenzmodellen. Es weist eine Architektur mit 235 Milliarden Gesamtparametern bei 22 Milliarden aktiven Parametern auf.

Die Veröffentlichung erfolgte über die KI-Plattform Hugging Face(öffnet im neuen Fenster) unter einer Open-Source-Lizenz. Dies ermöglicht Unternehmen den kostenlosen Download, die Anpassung und den kommerziellen Einsatz des Systems. Nicht offen sind die Trainingsdaten.

Die aktuelle Version wurde in verschiedenen Bereichen gegenüber dem Vorgängermodell verbessert. Benchmark-Daten zeigen bessere Ergebnisse bei logischen Aufgaben, faktischer Genauigkeit und mehrsprachigem Verständnis. Erste Vergleiche deuten darauf hin, dass das Modell die Leistung konkurrierender Systeme übertreffen könnte. Dazu gehörtMoonshots kürzlich veröffentlichtes Kimi-2-Modell.

Alibabas Entwicklerteam stellt das System in einer Standard- und einer optimierten FP8-Version zur Verfügung. Die FP8-Variante(öffnet im neuen Fenster) nutzt ein komprimiertes 8-Bit-Gleitkommaformat, das den Speicherbedarf und die Verarbeitungsanforderungen reduziert. Das könnte es ermöglichen, das Modell auf kostengünstigerer Hardware zu betreiben. Wer will, kann den Chatbot auf der Website des Herstellers ausprobieren.(öffnet im neuen Fenster)

Modell zielt auf Unternehmenseinsatz

Erste Bewertungen legen nahe, dass die FP8-Version etwa die Hälfte des GPU-Speichers herkömmlicher Implementierungen benötigt. Das Modell behält eine Mixture-of-Experts-Architektur bei und aktiviert 8 von 128 verfügbaren Expertenmodellen.

Das Modell wird unter der Apache-2.0-Lizenzierung angeboten, die eine kommerzielle Nutzung ohne Gebühren oder Anbieterbeschränkungen ermöglicht. Unternehmen können das System lokal betreiben. Dies ermöglicht privates Finetuning ohne Preisgabe proprietärer Daten an externe Dienste.

Alibaba scheint dem Bericht nach weitere Updates seiner Modellfamilie vorzubereiten. Hinweise deuten auf eine größere programmierorientierte Variante hin.


Relevante Themen