Original-URL des Artikels: https://www.golem.de/0309/27426.html    Veröffentlicht: 12.09.2003 11:41    Kurz-URL: https://glm.io/27426

GeForceFX zu langsam für Half-Life 2? Nvidia widerspricht

Valve: GeForceFX-Hardware benötigt spezielle Optimierungen, Radeon nicht

Der Half-Life-2-Entwickler Gabe Newell hat auf den "ATI Shader Days" die von Valve selbst entwickelte 3D-Engine präsentiert, welche als echte DirectX-9-Software hohe Ansprüche an die Hardware stellt. Genau diesen hohen Ansprüchen sollen Nvidias GeForceFX-Grafikprozessoren Newell zufolge nicht gerecht werden, da sie für den allgemeinen DirectX-9-Renderpfad - im Gegensatz zur ATI-Konkurrenz - zu langsam seien und stattdessen einer spezielle Optimierung bedürfen, die viel Entwicklungszeit benötige, aber selbst GeForceFX-5900-Ultra-Grafikkarten nur mit Radeon-9600-Karten gleichziehen lasse.

Die US-Website "The Tech Report" hat die von Newell gezeigten Präsentationsfolien abgelichtet und ins Netz gestellt, die genannten Benchmarkwerte für die GeForceFX-Serie sind ernüchternd: Auf einem 2,8-GHz-Pentium-4-System im allgemeinen DirectX-9-Full-Precision-Renderpfad bei 1.024 x 768 Bildpunkten ohne Anti-Aliasing und mit aktuellen Treibern erreichte eine Grafikkarte mit GeForceFX 5200 Ultra mit knapp 10 Bilder/s und GeForceFX 5600 Ultra mit etwas über 10 Bildern/s Werte, die als unspielbar gelten dürfen. Nvidias Top-Produkt GeForceFX 5900 Ultra schaffte es immerhin auf spieltaugliche 30 Bilder/s, während Radeon 9600 Pro mit knapp unter 50 Bildern/s und Radeon 9800 Pro mit etwas über 60 Bildern/s weit vorn liegen.

Mit dem speziellen GeForceFX-Renderpfad - der auf 16-Bit- anstatt 32-Bit-Rechengenauigkeit sowie besonders optimierte Shader-Programme setzt - sieht das Bild allerdings laut Newell etwas positiver aus: Zumindest GeForceFX-5900-Ultra-Grafikkarten schaffen es damit in die Nähe von 50 Bildern/s und setzen sich somit auf Radeon-9600-Pro-Niveau. GeForceFX 5200 Ultra und GeForceFX 5600 Ultra profitieren zwar auch von der Optimierung, schaffen es damit allerdings laut Präsentationsfolie auf knapp über 10 Bilder/s respektive knapp unter 15 Bilder/s. Als möglicher Ausweg neben der drastischen Grafikdetail- oder Auflösungsreduktion biete sich hier nur ein gänzlicher Verzicht auf die hübschen DirectX-9-Effekte und stattdessen der Rückschritt auf das weniger beeindruckende 3D-Effekte produzierende DirectX-8-Shader. Damit schaffen es 5200 Ultra und 5600 Ultra auf knapp unter 25 Bilder/s bzw. etwas über 25 Bilder/s - und müssen sich der GeForce4 Ti 4600 geschlagen geben, die es damit fast auf 45 Bilder/s bringt, und nicht weit weg von der GeForceFX 5900 Ultra liegt, die im DirectX-8-Rendermodus von Half-Life 2 etwas über 50 Bilder/s schafft.

Die für GeForceFX-Karten nötigen Optimierungen haben laut Newell das Fünffache der Entwicklungszeit des generischen Renderpfads in Anspruch genommen - die Zeit habe man investieren müssen, da man viele Kunden mit Nvidia-Hardware habe. Für die Zukunft malt Newell ein düsteres Bild für die aktuelle GeForceFX-Architektur: Immer komplexere DirectX-9-Shader würden die Optimierungen mittels zumindest teilweise eingeschränkter Rechengenauigkeit nicht mehr ermöglichen. Im Gegensatz dazu wäre ein derartiger Optimierungsaufwand für ATIs DirectX-9-Grafikchips gar nicht nötig gewesen.

Chancen sieht Gabe Newell allerdings in neuen, verbesserten Treibern, ist aber laut Tech Report skeptisch gegenüber durch neue Treiberversionen versprochene große Leistungsschübe und warnt gleichsam vor schlechten Treiberoptimierungen. Zu Letzteren zählt Newell unter anderem Treiberanpassungen für einzelne Versionen von Spielen oder gar einzelne Maps, die Ignorierung oder Vereitelung von Nutzereinstellungen und die Optimierung auf Benchmarks sowie die Verfälschung von Bildschirmfotos z.B. durch Rendern in höherer Qualität. Zudem bekräftigt Newell auf seiner letzten Folie, dass die Benchmarkwerte nicht in einer bereits geschlossenen Half-Life-2-Vertriebspartnerschaft (ATI wird seinen eigenen Karten Half-Life 2 beilegen) beinflusst wären, sondern dass diese vielmehr geschlossen wurde, eben weil ATIs Hardware besser in Half-Life 2 abgeschnitten hätte. Wer die Werte anzweifle, solle Microsoft fragen, ob sie gefälscht wären oder man zu wenig Optimierungen vorgenommen habe - Microsoft hatte Half-Life 2 kürzlich als ersten echten DirectX-9-Titel gelobt.

Von Nvidia gibt es mittlerweile schon eine offizielle Stellungnahme zu den Angaben von Newell - man zeigte sich verwundert, dass Valve Nvidia gar nicht im Vorfeld wegen der Probleme kontaktiert hätte, obwohl man während der gesamten Half-Life-2-Entwicklung in engem Kontakt gestanden habe. Besonders verwundert zeigte sich Nvidia, warum auf dem Shader Day die aktuelle Treiber-Version 45 eingesetzt wurde und nicht dessen Nachfolger 50. Damit seien die genannten Werte irrelevant, denn der noch in Entwicklung befindliche Treiber stehe Valve schon zur Entwicklung von Half-Life 2 als Beta-Version zur Verfügung und würde der beste je von Nvidia programmierte Treiber werden. Dank signifikanter Optimierungen für GeForceFX und einer automatischen "DirectX-9-Shader-Optimierung" sollen die Bildrateneinbrüche zumindest ab der Treiber-Version 50 nicht eintreten - und diese sei relevant, da sie vor Half-Life 2 erscheinen soll.

Interessanterweise gibt Nvidia aber zu, dass die beste Pixel-Shader-Leistung nur durch spezielle Anpassung an die GeForceFX-Architektur erzielt würde, geht aber nicht darauf ein, dass auch nur öffentlich verfügbare ATI-Treiber benutzt wurden. Optimaler Code für ATI und Nvidia sei aber nunmal unterschiedlich und ein Test mit nur einem Renderpfad würde jeweils einen der Kontrahenten benachteiligen. Dass allerdings nur für GeForceFX - wie übrigens auch beim kommenden Doom 3 - ein angepasster Renderpfad nötig ist und ATIs Hardware laut Valve lediglich den Standard-DirectX-9-Renderpfad nutzt sowie keine besonderen Optimierungen benötigen soll, verschweigt Nvidia in seiner Stellungnahme geflissentlich.

Nun setzt Nvidia auf noch engere Zusammenarbeit: "Wir setzen alles daran mit Gabe zusammen zu arbeiten, um seine Bedenken gänzlich zu verstehen und mit Valve zusammen sicher zu stellen, dass über 100 Millionen Nvidia-Kunden die bestmögliche Erfahrung mit Half-Life 2 auf Nvidia-Hardware machen werden."

Nachtrag:
Der voraussichtlich am 30. September 2003 verfügbare Benchmark auf Basis von Half-Life 2 und natürlich das Spiel selbst sind für Grafikchip- und Grafikkartenhersteller sehr wichtig, da ihre Ergebnisse potentiellen Kunden und insbesondere Half-Life-Fans als Entscheidungshilfe für Produktkäufe dienen werden. Da 3D-Engines jedoch unterschiedliche Anforderungen an die Hardware stellen können, sollten Grafikkarten-Kaufentscheidungen möglichst anhand verschiedener Spiele bzw. 3D-Benchmarks getroffen werden - bis jetzt gibt es nur noch nicht viele, voll auf DirectX-9- oder OpenGL-2.0-Möglichkeien setzende Software, die dabei helfen könnte. Immerhin wird aber mit dem Aquamark 3 von Massive Development/Jowood bereits am 15. September 2003 ein weiterer, auf einer echten Spiele-Engine basierender DirectX-9-Benchmark erscheinen, der ebenfalls bei Kaufentscheidungen helfen will. Der 3DMark03 hingegen ist etwas in die Kritik geraten, da es sich um einen synthetischen Benchmark handelt, dessen 3D-Engine in keinem Spiel zu finden sein wird und deshalb nur eingeschränkt aussagekräftig ist.  (ck)


© 1997–2019 Golem.de, https://www.golem.de/