Zum Hauptinhalt Zur Navigation

Phi-Silica: Microsoft stellt lokale KI für Copilot+ PCs vor

Build 2024
Microsoft hat das Sprachmodell Phi-Silica mit 3,3 Milliarden Parametern vorgestellt, das für die Neural Processing Units in Copilot+ PCs entwickelt wurde.
/ Andreas Donath
1 Kommentare News folgen (öffnet im neuen Fenster)
Neural Processing Units (NPU) (Bild: Microsoft)
Neural Processing Units (NPU) Bild: Microsoft

Microsoft hat auf der Entwicklerkonferenz Build in Seattle ein Small Language Model (SLM) namens Phi-Silica angekündigt. Das berichtete Venture-Beat(öffnet im neuen Fenster) . Phi-Silica soll in alle Copilot+ PCs integriert werden, wenn diese im Juni 2024 auf den Markt kommen.

Lokale Sprachmodelle bieten den Vorteil, dass die Daten, die damit verarbeitet werden sollen, auf dem Gerät bleiben. Das soll Datenschutzbedenken zerstreuen und die Offlinenutzung ermöglichen.

Laut Microsoft bietet Phi-Silica eine hohe Antwortgeschwindigkeit bei einem Stromverbrauch von nur 1,5 Watt. Dieses Design stellt sicher, dass das Modell die PC-Ressourcen nicht überstrapaziert, so dass sich CPU und GPU auf andere Berechnungen konzentrieren können. Darüber hinaus nutzt die Token-Generierung des Modells den Cache der NPU und läuft auf der CPU, wobei etwa 27 Token pro Sekunde erzeugt werden.

Wichtiger Schritt in der lokalen KI-Implementierung

Ein Microsoft-Sprecher betonte: "Die Besonderheit von Phi-Silica ist, dass es das erste lokal eingesetzte Sprachmodell für Windows ist. Optimiert für die Ausführung auf den NPUs der Copilot+ PCs, bringt es blitzschnelles lokales Inferencing auf Ihr Gerät."

Phi-Silica reiht sich in die Reihe der Phi-3-Modellvarianten von Microsoft ein, zu denen Phi-3-Mini (3,8 Milliarden Parameter), Phi-3-Small (7 Milliarden Parameter), Phi-3-Medium (14 Milliarden Parameter) und Phi-3-Vision (4,2 Milliarden Parameter) gehören. Mit seiner kompakten Größe und optimierten Leistung soll Phi-Silica in der Lage sein, die Fähigkeiten von Copilot+ PCs deutlich zu verbessern.


Relevante Themen