Iris Xe Max (DG1): Dedizierte Intel-Grafik soll Geforce MX350 schlagen
Bei Spielen vor der Konkurrenz, bei AI sowie Encoding weit überlegen: Intel verspricht viel für die dedizierte Iris Xe Max alias DG1.

Intel hat den ersten dedizierten Grafikchip seit Jahrzehnten vorgestellt, genannt Iris Xe Max. Die intern als DG1 (Dedicated Graphics 1) entwickelte GPU ist für Ultrabooks ausgelegt und wird gegen Nvidias ebenfalls dedizierte Geforce MX350 positioniert, zudem soll AMDs integrierte Vega8 auf Abstand gehalten werden.
Die Iris Xe Max basiert wie die reguläre Iris Xe, welche in den Tiger-Lake-Chips steckt, auf der Gen12.1-Architektur. Konkret nutzt sie die Xe LP (Low Power) mit 96 Executions Units und einer Frequenz von bis zu 1,65 GHz - das entspricht der Iris Xe mit etwas mehr Takt. Auch beim 128 Bit breiten Interface bedient sich Intel bei Tiger Lake und nutzt den gleichen Bus bei der Iris Xe Max.
Ein typisches Notebook weist einen Ice-Lake- oder Tiger-Lake-Prozessor mit variabler Menge an LPDDR4X-Speicher auf, hinzu kommt die Iris Xe Max mit eigenen 4 GByte LPDDR4X-Speicher. Das ist höchst ungewöhnlich für dedizierte Grafikeinheiten, üblich ist GDDR5 oder GDDR6. Intel zufolge war LPDDR4X-4266 jedoch die bessere Wahl, da der Speicher sparsamer ist. Tatsächlich würde für 68 GByte/s bereits sehr langsamer GDDR5 ausreichen, der aber mehr Energie benötigt. Der DG1-Chip wird per 10 nm Super Fin gefertigt, so wie Tiger Lake auch.
Iris Xe | Iris Xe Max | |
---|---|---|
Typ | integriert (Tiger Lake U) | dediziert (DG1) |
Fertigung | 10 nm Super Fin | 10 nm Super Fin |
Architektur | Xe LP (Gen12) | Xe LP (Gen12) |
Execution Units | 48 / 80 / 96 | 96 |
Takt | bis zu 1,35 GHz | bis zu 1,65 GHz |
Interface | 128 Bit (shared) | 128 Bit |
Speicher | LPDDR4X-4266 (variabel) | LPDDR4X-4266 (4 GByte) |
Power-Budget | 12 bis 28 Watt | bis zu 25 Watt |
Um die Iris Xe Max mit dem Prozessor zu verbinden, setzt Intel auf PCIe Gen4 x4. Überdies gibt es einen sogenannten Deep Link, welcher die Leistungsaufnahme zwischen SoC und dGPU verschieben kann. Je nach Workload kann es sinnvoller sein, den CPU-Kernen mehr Power-Budget zuzuweisen oder eben der Iris Xe Max. Bei Latenz-kritischen Spielen wie League of Legends nutzt der Treiber gar die integrierte Iris Xe, da so die Performance höher sein soll. Entsprechende Profile sollen im IGCC (Intel Graphics Command Center) eingepflegt und aktualisiert werden.
Für SoC und dGPU zusammen ist ein Power-Budget von 28 Watt oder mehr zulässig, die Iris Xe Max hat Intel auf maximal 25 Watt ausgelegt. Damit entspricht sie von der Verlustleistung her Nvidias Geforce MX350, die in Spielen durchschnittlich langsamer sein soll: Mit niedrigen oder mittleren Details laufen Titel wie Gears Tactics oder The Witcher 3 in 1080p laut Intel mit 30 bis 45 fps. Für den Vergleich nutzte Intel ein Acer Swift 3X (SF314-510G) mit Tiger Lake und ein Lenovo Slim 7 (14IIL) mit Ice Lake. Gegen die Geforce MX450 dürfte die Iris Xe Max chancenlos sein.
Abseits von Games sieht sich Intel klar vor der Konkurrenz, konkret wenn Encoding oder künstliche Intelligenz gefragt sind: Dank Quicksync werden bei Handbrake gleich vier MFX (Multi Format Codec Engines) genutzt - die zwei der Iris Xe und die zwei der Iris Xe Max -, so dass diese Kombination doppelt so schnell ist wie eine Geforce RTX 2080 Ti per NVENC. Bei angepasster Software wie Topaz' Gigapixel, die Inferencing per INT8-DP4A via Iris Xe plus Iris Xe Max beschleunigt, spricht erneut iGPU und dGPU koppelt, erfolgt das Upscaling von Fotos mit siebenfacher Geschwindigkeit einer Geforce MX350.
Erste Ultrabooks mit der Iris Xe Max sind das Acer Swift 3X (SF314-510G), das Asus Vivobook Flip 14 (TP470) und das Dell Inspiron 15 (7506). Alle drei Geräte sollen ab dem 1. November 2020 in Asien und in Nordamerika verfügbar sein, für Europa liegt uns kein Datum vor.
Die Iris Xe Max ist übrigens nicht Intels allererste dedizierte Grafikeinheit: Schon 1998 gab es die gefloppte i740 (Auburn) und nach der Jahrtausendwende arbeitete Intel an Larrabee, was später dann in der MIC-Architektur (Many Integrated Core) und den mittlerweile eingestellten Xeon-Phi-Beschleunigern resultierte.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Schau mal wie lange es bei AMD gedauert hat, bis sie Nvidia wieder eingeholt hatten und...
Das muss nen Debianproblem sein, nutze AMD iGPU und dGPU auf Arch Linux und das fluppt...
Die HD7850 ist GCN1 und wurde lange neu aufgelegt. Aber ja, beide sind alt und darauf...
Na ja. Der Vergleich zwischen einer dedizierten GPU und einer iGPU ist genau so Quatsch...