In 4K trumpft die Fury X auf
Wir vermessen AMDs Radeon R9 Fury X wie üblich im Golem-Würfel mit einem auf 3,6 GHz getakteten Core i7-5960X, einem X99-Mainboard von Asus und 16 GByte DDR4-Arbeitsspeicher. Das Betriebssystem ist Windows 8.1 Update x64, jegliche Software und alle Spiele sind auf SSDs installiert. Für Nvidias Geforce-Grafikkarten verwenden wir den Geforce-Treiber 352.90 Beta, für AMDs Radeon-Modelle den Catalyst 15.15 Beta. Letzteren mussten wir für die Radeon R9 290X modifizieren (siehe Update), damit er mit der alten Generation funktioniert.
Wir verzichten in allen Spielen auf herstellereigene Implementierungen wie HBAO+ oder HDAO bei der Umgebungslichtverdeckung, auf Nvidias Gameworks-Effekte wie Hairworks und auf spezielle weiche Schatten wie AMDs Contact Hardening Shadows oder Nvidias Percentage Closer Soft Shadows. Im Treiber ist die anisotrope Filterung auf hohe Qualität ohne Optimierungen eingestellt, um eine angemessene und vergleichbare Bildqualität zu erreichen.
Alle Grafikkarten werden im jeweiligen Spiel vorgeheizt, bis sie die maximale Temperatur erreichen, die der Kühler zulässt. Das ist wichtig, da ansonsten die Boost-Taktraten die Karten schneller machen, als sie es in der Praxis nach ein bis zwei Stunden im Spiel wären. Die Radeon R9 Fury X hält durch die Wasserkühlung ihre 1.050/500 MHz konstant, die Radeon R9 290X taktet mit 1.040/2.500 MHz. Die Geforce GTX 980 haben wir auf 1.240/3.500 MHz beschränkt, die Geforce GTX 980 Ti läuft im Mittel mit Taktraten von 1.177/3.500 MHz und die Geforce GTX Titan X mit durchweg 1.126/3.500 MHz.
Je mehr Pixel, desto besser ist Fury X
Die Geschwindigkeit von AMDs neuer Radeon-Karte ist in der hohen Ultra-HD-Auflösung (3.840 x 2.160 Pixel) Nvidias Geforce GTX Titan X durchweg überlegen: Egal ob Assassin's Creed Unity, Dragon Inquisition, Grand Theft Auto 5, Ryse oder The Witcher 3 - die Fury X rendert immer ein paar Bilder pro Sekunde mehr. Einzige Ausnahme ist Project Cars: Das Rennspiel bremst Radeon-Modelle wie gehabt ziemlich aus - schade.
Wer die Fury X also mit einem 4K-Display betreibt, Treiber-Downsampling oder spielinternes Supersampling nutzt, der erhält eine exzellente Leistung. Deutlich schlechter sieht es verglichen mit den Geforce-Modellen aus, wenn die AMD-Karte nur 2.560 x 1.440 oder 1.920 x 1.080 Pixel berechnen muss. Außer in Assassin's Creed Unity und dem in niedrigen Auflösungen CPU-limitierten Ryse fällt die Fury X hinter die Geforce GTX 980 Ti und teils gar hinter die Geforce GTX 980 zurück und der große Abstand zur Radeon R9 290X schrumpft gewaltig.
Messwerte, die aufzeigen, warum die Fury X einzig in hohen Auflösungen oder mit Down- sowie Supersampling eine sehr gute Leistung abliefert, können wir mangels Einblick in AMDs Treiber nicht bieten - aber mehrere Erklärungsansätze. Das Frontend dürfte in Situationen, in denen das Verhältnis aus Pixeln und Polygonen zu letzteren tendiert, zu wenig Durchsatz liefern und so die Recheneinheiten nicht ordentlich auslasten. Zudem hat Nvidia den Geforce-Treiber in vielen Spiele händisch auf einen geringeren Overhead optimiert und konnte so die Geschwindigkeit in teilweise CPU-limitierten Szenen deutlich steigern.
Abseits von Spielen kann die Radeon R9 Fury X ihre Rechenleistung sehr viel besser ausspielen: Im Bereich GPU-Computing, in unserem Fall exemplarisch der OpenCL-Renderer Luxmark, haben die Geforce-Modelle schlicht keine Chance gegen die Fury X.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Toller Lüfter - nervige Pumpe | Effiziente Karte ohne OC-Potenzial |
Der Kommentar ist recht schlecht gealtert;) War aber auch in der Vergangenheit...
Echt, Nvidia zwingt dich die Mondpreise zu bezahlen. Sie stehlen regelrecht das Geld aus...
Schau dir doch einfach einen anständigen Test an, der auch was aussagt :) http://www...
Schon lustig. Du beschwerst Dich darüber das Nvidia Supporter zu den Firmen schickt...
ZB vielele ältere Spiele von Ubi laufen out of the box super mit Eyefinity. Neuere Games...