Ice Lake U: Intel erläutert Architektur der Gen11-Grafik
Ende 2019 erscheinen die Ice Lake genannten Intel-Chips für Ultrabooks. Deren Gen11-Grafikeinheit weist viele Neuerungen auf, etwa bei den Shadern, beim L3-Cache oder beim Speicherinterface.
Intel hat einen Überblick zur Architektur der Gen11-Grafik der kommenden Ice-Lake-Generation (ICL-U) veröffentlicht. Das Dokument schlüsselt diverse Verbesserungen auf, welche Intel verglichen mit der aktuellen Gen9.5-Technik vorgenommen hat und listet mehr Details als der Hersteller im vergangenen Dezember präsentiert hatte. Die im 10+ genannten Fertigungsverfahren produzierten Prozessoren enthaltenen Grafikeinheiten (iGPUs) heißen UHD Graphics 910/920 oder Iris Plus Graphics 930/940/950, die Anzahl der Slices macht den Unterschied aus.
Eine Intel-iGPU besteht aus einer Common-Slice und mehreren Sub-Slices, was sie skalierbar macht. Der Display- und der Speicher-Controller sitzen im System Agent, welcher per Ringbus an die iGPU angeschlossen ist. Die Gen11 unterstützt LPDDR4-Speicher über 4x 32 Bit, die bisherige Gen9.5 nur LPDDR3 und 2x 64 Bit. Das Frontend kann mehr Draw-Calls verarbeiten, die Tessellation-Leistung wurde gesteigert. Die Common-Slice umfasst einen mit 3 MByte statt 768 KByte viel größeren L3-Cache, da Intel wie AMD und Nvidia einen Tile-basierten Rasterizer implementiert hat. Dieser ist bei Multisampling-Kantenglättung schneller, MSAA verwenden aber nur noch wenige Spiele-Engines.
Statt drei Sub-Slices verbaut Intel nun gleich acht, was die Anzahl der sogenannten Execution Units (EUs) von 24 auf 64 anhebt. Das gilt jedoch einzig für die GT2-Konfiguration (Iris Plus Graphics ), das GT1-Pendant (UHD Graphics) hat wohl 32 EUs. Eine GT3-Variante mit Embedded-DRAM als On-Package-Speicher scheint nicht geplant. Nutzer sollten nicht davon ausgehen, in einem gewöhnlichen 15-Watt-Chip die vollen 64 EUs anstelle von 24 EUs zu erhalten, diese sehen wir derzeit primär in den seltenen 28-Watt-Modellen.
Die Sub-Slices umfassen die EUs mit zwei Shader-Einheiten (ALUs) und einer Texur-Einheit (Sampler, TMUs) sowie einen Shader-Local-Memory mit 64 KByte; dieser war bei der Gen9.5 noch Teil des L3-Caches. Die Shader-Kerne weisen die gleiche Register-Menge auf und beherrschen FP32/FP16 sowie INT32, allerdings wurde FP64 gestrichen. Die TMUs sollen bestimmte Formate bilinear sowie trilinear deutlich schneller filtern. Der neue Dataport soll bei Blend-Operationen den L3-Cache und Speichersubsystem weniger belasten.
Einige Bereiche der Decode/Encode-Einheit alias Media Fixed Functions sind doppelt ausgelegt, was die Effizienz und somit die Akkulaufzeit steigern soll. Der MFX (Multi-format Codec) unterstützt neben dem Decoding von H.265 und VP9 mit jeweils 10 Bit nun auch das Encoding von VP9 mit 10 Bit in Hardware. Das ist wichtig für 4K-Inhalte mit High Dynamic Range (HDR), wie sie unter anderem der Filme-Streaming-Anbieter Netflix ausstrahlt. Generell spricht Intel von Verbesserungen, welche die Akkulaufzeit erhöhen sollen - einige davon, etwa Panel Self Refresh, sind aber keine echte Neuerung.
Laut Intel unterstützt die Gen11 den Adaptive-Sync-Standard und auf Microsofts standardisierte Variable Rate Shading alias Coarse Pixel Shading unter Direct3D 12 für mehr Leistung in Spielen. Mit Feature Level 12_1 und vielen Tier 3 ist die kommende Architektur zudem wie gehabt technisch auf dem aktuellen Stand.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed









Natürlich empfehle ich Gaming-Notebooks, wenn man spielen will. Sonst nicht, wo man mit...
Danke