Zum Hauptinhalt Zur Navigation

TSNC: Intels KI-Kompression verkleinert Texturen massiv

TSNC ergänzt das Kompressionsverfahren BCn und verkleinert Textursätze weiter – bei leichten Qualitätseinbußen. Das funktioniert auch ohne Intel - GPU .
/ Johannes Hiltscher
1 Kommentare News folgen (öffnet im neuen Fenster)
Vergleich zwischen BCn- und TSCN-komprimierten Texturen. (Bild: Intel)
Vergleich zwischen BCn- und TSCN-komprimierten Texturen. Bild: Intel

Bis zu 18-fache Kompression, das verspricht Intel für Texture Set Neural Compression, kurz TSNC. Wie der Name andeutet, nutzt das Verfahren ein neuronales Netz, um einen Textursatz zu komprimieren.

Erstmals vorgestellt(öffnet im neuen Fenster) wurde das Konzept 2025 zur Game Developers Conference (GDC), aktuell arbeitet Intel an einem Software Development Kit (SDK). In einem Vortrag bei der Microsoft-Konferenz Build 2026(öffnet im neuen Fenster) gaben die Entwickler einen Einblick.

Bei TSNC handelt es sich um eine Erweiterung der bereits lange genutzten Blockkompression, oft als BCn(öffnet im neuen Fenster) abgekürzt. Diese stellt einen Block von meist 4 x 4 Pixeln über zwei Grundfarben und 16 Mischungsverhältnisse dieser Farben dar. Vorgestellt wurden zwei TSNC-Varianten, die selbst gegenüber gängigen BCn-Paradigmen eine Verkleinerung um rund 50 bis 75 Prozent erreichen.

Um das zu erreichen, bildet TSNC BC1-komprimierte Ausgangsdaten – sie bestehen aus 4 Bit pro Pixel und zwei 16-Bit-codierten Farbwerten – mittels eines Multilayer Perceptron (MLP) auf latente Räume(öffnet im neuen Fenster) ab. Die Abbildung erfolgt zwischen zwei Vektoren mit je 16 16-Bit-Werten. Der Ergebnisvektor wird als vier latente Räume interpretiert. An der Größe ändert das erst einmal nichts.

Ein Teil der Daten ist verzichtbar

Die zusätzliche Kompression wird erreicht, indem ein Teil der vier latenten Räume mit niedrigerer Auflösung gespeichert wird. Die Idee der Abbildung ist, dass das MLP die Information effizienter codiert.

Deshalb bedeutet ein teilweiser Verlust der latenten Daten keine signifikanten Qualitätseinbußen. Die latenten Räume werden als Mipmap gespeichert, ein Texturformat, das eigentlich den Rechenaufwand bei größerem Abstand von einer Textur verringern soll.

Dafür enthält eine Mipmap mehrere Bilder mit jeweils halbierter Auflösung. Diesen Aufbau nutzt TSNC für maximale Kompression, die zweite Variante speichert je die Hälfte der Räume mit voller sowie halbierter Auflösung.

Die Idee hinter TSNC ist, dass Texturen üblicherweise aus mehreren einzelnen Bitmaps bestehen – neben dem eigentlichen Bild etwa noch einer Normal Map und weiteren Zusatzinformationen. Welche Daten in die Vektoren gepackt werden, ist aber nicht vorgegeben.

Für jeden solchen Textursatz muss anschließend ein eigenes MLP trainiert werden. Das ist allerdings mit einer versteckten Schicht mit 64 Neuronen ziemlich kompakt. Die 6.144 Gewichtsparameter müssen zusätzlich gespeichert werden, was die Einsparungen aber deutlich überkompensiert.

Die Intel-Entwickler ließen die Qualitätseinbußen von Nvidias Tool Flip bewerten. Bei der niedrigen Kompressionsstufe sollen sie mit einer Abweichung von im Mittel fünf Prozent gegenüber reinem BCn moderat sein. Die aggressivere Kompression hingegen weist mit einem Mittelwert von gut sieben Prozent sichtbare Abweichungen auf.

Effizienter mit Matrixkernen

Dekomprimiert werden können die Daten zu beliebiger Zeit: direkt in Render-Prozess, was auch Video-RAM spart, nach dem Download eines Spiels oder beim Laden der Textur in den Video-RAM.

Die Dekompression ist für CPU und GPU über SIMD-Befehle implementiert, bei Intels Battlemage-GPUs können die integrierten XMX-Matrixkerne genutzt werden. Dafür wurde die Erweiterung Linear Algebra Matrix(öffnet im neuen Fenster) von DirectX High Level Shading Language (HLSL) genutzt.

Die Nutzung der XMX-Einheiten reduziert den Aufwand für das Entpacken um rund 70 Prozent. Dennoch dauert das Entpacken einer 4k-Textur mehr als 3 ms. Sobald andere GPU-Hersteller die Erweiterung für lineare Algebra implementieren, kann TSNC prinzipiell auch etwa von Nvidias Tensor Cores beschleunigt werden.


Relevante Themen