Zum Hauptinhalt Zur Navigation

Ressourcen: Microsoft stellt CPU-kompatible 1-Bit-KI vor

Forscher von Microsoft haben ein sogenanntes 1-Bit-KI-Modell entwickelt, das es erlaubt, auch auf einer CPU statt auf einer GPU zu laufen. Das soll Kosten senken.
/ Michael Linden
13 Kommentare News folgen (öffnet im neuen Fenster)
Microsoft plant KI ohne GPU. (Bild: Pexels)
Microsoft plant KI ohne GPU. Bild: Pexels

Microsofts neues KI-Modell mit dem Namen Bitnet b1.58 2B4T(öffnet im neuen Fenster) läuft unter einer MIT-Lizenz und ist mit Standard-CPUs kompatibel, darunter auch die M2-Prozessoren von Apple, wie Techcrunch berichtet(öffnet im neuen Fenster) .

Im Mittelpunkt der Innovation steht das Konzept der Bitnets - hochkomprimierte KI-Modelle, die speziell für den Einsatz auf leichter zugänglichen Hardwarekonfigurationen entwickelt wurden. Im Gegensatz zu herkömmlichen Modellen, die erhebliche Rechenressourcen erfordern, verwenden Bitnets einen radikalen Quantisierungsansatz, der die Hardware-Anforderungen drastisch reduziert.

Herkömmliche KI-Modelle verwenden Gewichte - die kritischen Werte, die die interne Struktur eines Modells definieren. Diese benötigen viel Speicher. Im Gegensatz dazu quantisieren Bitnets diese Gewichte auf nur drei mögliche Werte: -1, 0 und 1, wodurch der Speicherbedarf reduziert und die Verarbeitungsgeschwindigkeit erhöht wird.

Und so funktioniert es

Konventionelle KI-Modelle speichern ihre Lernparameter - sogenannte Gewichte - als komplexe Fließkommazahlen mit 16 oder 32 Bit. Diese präzisen numerischen Werte verleihen den Systemen ihre Lernfähigkeit, führen jedoch zu enormen Modellgrößen. Die Folge: hohe Hardwareanforderungen, beträchtlicher Speicherbedarf und ein signifikanter Energieverbrauch.

Bitnet hingegen hat einen grundlegend anderen Ansatz. Statt differenzierter Zahlenwerte nutzt das System lediglich drei mögliche Zustände für seine Gewichte: -1 für negative Einflüsse, 0 für neutrale Positionen und +1 für positive Wirkungen. Experten bezeichnen diese Methode als ternäre Quantisierung.

Das Resultat ist in der Tat beeindruckend: Während herkömmliche Modelle 16 oder 32 Bit pro Gewicht benötigen, kommt BitNet mit durchschnittlich nur etwa 1,58 Bit aus - mathematisch ausgedrückt als log₂(3).(öffnet im neuen Fenster) Durch effiziente Datenkomprimierung erreicht das System seine enorme Speichereffizienz.

Das Team trainierte das ressourcenschonende Modell auf einem umfangreichen Datensatz, der 4 Billionen Tokens umfasst, was in etwa dem Inhalt von 33 Millionen Büchern entspricht.

Leistungsvergleich zeigt wettbewerbsfähige Ergebnisse

Im Vergleich zu anderen Modellen mit 2 Milliarden Parametern zeigte Bitnet b1.58 2B4T eine gute Leistung. Laut Testdaten übertraf das Modell mehrere namhafte Alternativen, darunter Metas Llama 3.2 1B, Googles Gemma 3 1B und Alibabas Qwen 2.5 1.5B in einigen Benchmarks.

Allerdings gibt es noch Herausforderungen bei der Implementierung der neuen Modellarchitektur. Nutzer, die die angegebenen Leistungswerte erreichen möchten, müssen das proprietäre Framework Bitnet.cpp von Microsoft(öffnet im neuen Fenster) verwenden, das derzeit nur bestimmte Hardwarekonfigurationen unterstützt. Wenn die Kompatibilitätsprobleme gelöst werden können, könnten Bitnets einen wichtigen Schritt in Richtung einer Demokratisierung des Zugangs zu Technologien der künstlichen Intelligenz darstellen.


Relevante Themen