Hardware-Raytracing von AMD
Die Grafikeinheit für Direct3D Feature Level 12_2 basiert auf 56 Compute Units, aktiv sind davon aber nur 52. Das resultiert in 3.328 Shader-Einheiten, welche AMDs kommende RDNA2-Architektur nutzen. Wie viel schneller diese ALUs pro Takt im Vergleich zur RNDA1-Technik wie die der Radeon RX 5700 XT (Test) sind, ließ Microsoft offen. Verglichen mit GCN v5 (Vega 64) seien es 25 Prozent, diesen Wert nannte AMD allerdings schon für RDNA1. Wie gehabt laufen FP16-Operationen mit doppelter Geschwindigkeit von FP32-Befehlen, etwa für flottere Überstrahleffekte (Bloom).
Neu ist, dass maschinelles Lernen mit Formaten wie INT8 unterstützt wird. Für sehr wenig Die-Fläche könne so per Inferencing die Performance um den Faktor 3x bis 10x verbessert werden. Eine Anwendung ist KI-gestütztes Upscaling per DirectML-Schnittstelle, ähnlich wie Nvidias DLSS 2.0 oder die Umsetzung von Sony für die Playstation 5. Ein neuronales Netz wird mit extrem hochauflösendem Referenzmaterial (Ground Truth) trainiert, so dass die GPU niedrigere Auflösungen auf etwa 4K hochrechnen kann. Das Resultat sind höhere Bildraten bei im Idealfall sehr gut rekonstruierten Details.
RDNA2 integriert erstmals Raytracing-Hardware in die Compute Units: In jeder CU befindet sich eine mit der Quad-TMU (Texture Mapping Unit) gekoppelte Ray-Intersection-Engine, die vier Strahlenoperationen pro Takt vornehmen und somit die Schnittpunktprüfung um den Faktor 3x bis 10x beschleunigen kann. Zumindest laut einer Folie wird das Durchlaufen der zuvor erstellten Beschleunigungsstruktur (Bounding Volume Hierarchy, BVH) von den regulären Shader-Einheiten durchgeführt. Bei Nvidia hingegen wird beides, Traversal und Intersection, von den RT-Cores erledigt. Welcher dieser Raytracing-Hardware-Ansätze welche Vor- und Nachteile hat, bleibt vorerst offen.
Weitere Techniken umfassen die von DirectX 12 Ultimate geforderten Punkte. Darunter fallen das DXR Tier 1.1 für schnelleres Raytracing, das Variable Rate Shading für eine höhere Bildrate bei möglichst geringem optischen Qualitätsverlust, der Mesh Shader für mehr Geometrie pro Frame und das Sampler Feedback für ein besseres Streaming mit scharfen statt verwaschenen Texturen sowie weniger Pop-ups.
Das SoC der Xbox Series X kann 8K-Videos samt HDR (High Dynamic Range) mit H.264 sowie H.265 und VP9 dekodieren, sprich entsprechende Videos abspielen. Aufnahmen klappen mit HDR per H.264- und H.265-Codec, wobei Microsoft nicht sagt, ob hier 4K oder 8K geboten wird. Der Display-Controller unterstützt HDMI 2.1 für 8K bei 60 Hz oder 4K bei 120 Hz, eine variable Refresh-Rate (VRR) wird bei passenden Fernsehern oder Monitoren ebenfalls geboten.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Microsoft: Die Hardware-Finessen der Xbox Series X |
- 1
- 2
Danke, fixed.
Nope. VRR erlaubt deinen Bildschirm aufs naechste Bild der Grafikkarte zu warten...
Wäre generell mal an der Zeit für eine Revolution im Grafik Bereich. Polygone sind so...
Ja da wird es mit Sicherheit Synergien geben. Umso einfacher für die Entwickler zu...