X800 Pro und X800 XT machen GeForce 6800 Konkurrenz

ATI verspricht, dass die X800 Pro und die X800 XT im Unterschied zu ihren Vorgängern 9800 Pro und 9800 XT das Doppelte an 3D-Leistung bieten. Selbst die GeForce 6800 Ultra will ATI mit der X800 XT übertrumpfen können. Dazu haben ATIs Ingenieure - wie auch Nvidia bei seiner GeForce-6800-Reihe - der X800 Pro 12 und der X800 XT 16 Pixel-Pipelines sowie entsprechend viele Pixel-Shader-Einheiten spendiert, während die Vorgänger noch 8 Pixel-Pipelines boten. Dank sechs statt vier Vertex-Shader-Einheiten sollen beide X800-Modelle zudem die doppelte Geometrie-Leistung im Vergleich zu ihren 9800er-Kollegen erreichen.
ATI setzt die gleiche 0,13-Mikron-Fertigungstechnik wie bei der 9800 XT ein, die X800-Chips sind aber mit 160 Millionen Transistoren etwas umfangreicher. Dennoch spricht ATI von guter Ausbeute und guten Taktraten, was bastelfreudige X800-Pro-Grafikkartenkäufer auf die Möglichkeit zum Umbau zur X800 XT hoffen lassen könnte. Auch Nvidia - deren GeForce-6800-Serie mit 222 Millionen Transistoren deutlich umfangreicher ausfällt - hat bei der GeForce 6800 Non-Ultra vier Pipelines gesperrt, bezweifelt aber, dass jemand diese freischalten kann.
Sowohl die Pixel-Shader als auch die Vertex-Shader der X800-Serie unterstützen weiterhin die Shader-2.0-Spezifikation von DirectX 9, so dass Nvidias GeForce 6800 als erster Shader-3.0-Chip einen Technologievorsprung hat, der sich allerdings erst in etwa einem Jahr langsam auswirken dürfte. ATI und einigen Spieleentwicklern zufolge lassen sich mit Shader-2.0-Programmen zudem die gleichen Effekte erzeugen wie mit Shader-3.0-Programmen. Nvidia und andere Spieleentwickler entgegnen darauf, dass vergleichbare Shader-2.0-Effekte deutlich mehr Programmzeilen erfordern, damit mehr Zeit kosten und zudem weniger flexibel sein würden.
Die fehlende Shader-3.0-Unterstützung will ATI durch seine verbesserte Shader-2.0-Architektur wettmachen. Die überarbeiteten Pixel-Shader ("Smart Shader HD") sorgen mittels 32 statt zuvor 12 Registern dafür, dass Wartezeiten während zeitraubender Textur-Lade-Aktionen effizient genutzt werden. Zudem können nun statt maximal 160 Shader-Instruktionen bis zu 1.536 (je 512 Vektor-, Skalierungs- und Textur-Befehle) genutzt werden, was allerdings nur für Grafikanwendungen interessant ist, denn Spiele verwenden ATI zufolge meist Shader-Programme mit bis zu 40 Shader-Instruktionen, um Grafikkarten nicht in die Knie zu zwingen. Laut ATI ist damit auch die Grenze der 9800er-Serie, die bei 160 Shader-Instruktionen liegt, nicht erreicht. Wie gehabt nutzt ATI auch bei der X800 seine Pixel-Shader-Einheiten zur Video-Beschleunigung - inkl. MPEG-1/2/4- und WMV-Dekompression.
Die vermutlich wichtigste Erweiterung der X800-Chips ist die zu Smartshader HD zählende spezielle Texturkompression 3Dc für die unkomprimiert bis zu 30 MByte großen Normal-Maps. Bei Letzteren handelt es sich um Texturen, die Informationen für ihre plastische Darstellung mitliefern und somit deutlich detailreichere 3D-Modelle ermöglichen. Die üblicherweise genutzte Texturkompression S3TC würde die speziellen Texturen hingegen "platt rechnen", so dass Entwickler auf ihren Einsatz in diesem Fall verzichten müssten. Die Nutzung des von den X800-Chips "on the fly" dekomprimierbaren 3Dc soll Entwicklern erlauben, entweder vorhandene Texturen zur Platzgewinnung besser zu komprimieren oder viermal so große und somit noch detailreichere Texturen zu verwenden.
Um unnötige Rechenarbeit zu vermeiden, bringt ATIs Bandbreiten-Optimierungs-Architektur "Hyper Z HD" ebenfalls einige Neuigkeiten. So wird hierarchisches Z-Buffering - bis zu 256 nicht sichtbare Pixel werden pro Zyklus vom X800 verworfen - nun in allen Auflösungen bis 1.920 x 1.080 und 1.600 x 1.200 Bildpunkten unterstützt und Stencil-Schatten beschleunigt. Ein weiteres Leistungsplus verspricht die überarbeitete, aus vier 64-Bit-Kanälen bestehende 256-Bit-Speicherschnittstelle mit teils programmierbarem Cross-Bar-Speichercontroller, der insbesondere bei Kantenglättung effizienter als bei den Radeon-9800-Chips arbeiten soll. Unterstützt werden GDDR3-, DDR2- und DDR-Speicher - die ersten X800-Grafikkarten werden allerdings einen schnellen GDDR3-Speicher besitzen.
Bei der Kantenglättung (engl. Anti-Aliasing) wird neben dem von ATI Gewohnten nun auch das bisher nicht als Treiber-Option einschaltbare, sondern nur direkt per Software ansprechbare "Centroid Sampling" endlich regulär unterstützt, um Darstellungsprobleme bei Verbindung mehrerer kleiner Texturen zu größeren Texturen zu vermeiden. Neu ist das "Temporal Anti-Aliasing", bei dem etwa zwei verschiedene 4AA-Muster immer im Wechsel voneinander genutzt werden. Damit könne ATI zufolge trotz 4AA-Mustern ab einer bestimmten Bildrate eine Kantenglättungs-Qualität wie mit wesentlich rechenaufwendigeren 8AA-Sample-Mustern erzielt werden - Gleiches ist bei 2AA- und 6AA-Mustern möglich.
Die Sache hat allerdings einen Haken: Temporal Anti-Aliasing funktioniert nur, wenn eine Bildrate von 30 oder 40 Bildern/s nicht unterschritten wird. Darunter fängt das Bild an zu flimmern, weil dann das eher träge Auge des Betrachters nicht mehr überlistet werden kann. Um dies zu vermeiden, schaltet der ATI-Treiber das Temporal AA automatisch ab, wenn eine bestimmte Bildrate unterschritten wird. Sobald die Bildrate wieder eine gewisse Zeit lang hoch genug war, wird die spezielle Kantenglättung wieder aktiviert.
Erste Radeon-X800-Pro-Grafikkarten mit 12-Pixel-Pipeline-Architektur sollen mit einem Chiptakt von 475 MHz und 256 MByte GDDR3-Grafikspeicher mit 450 MHz Taktfrequenz - zumindest in den USA - ab sofort ausgeliefert werden und hier zu Lande 400,- bis 450,- Euro kosten. Für eine Radeon X800 XT Platinum Edition mit 16-Pixel-Pipelines, 520 MHz Chip- und 560 MHz Speichertakt fallen bei gleicher Grafikspeichermenge zwischen 500,- bis 550,- Euro an. Erste X800-XT-Grafikkarten sollen ab 21. Mai 2004 ausgeliefert werden. Damit könnte es ATI und Partner schaffen, auch mit der X800 XT vor den GeForce-6800-Ultra-Grafikkarten von Nvidias Partnern auf den Markt zu kommen. Die GeForce 6800 Non-Ultra erwartet Nvidia hingegen erst für Juni 2004.



