Zum Hauptinhalt Zur Navigation

Test: Radeon 3870 X2 - AMDs mühsame Rückkehr ins High-End

Neue Grafikkarte mit zwei GPUs und enormem Energiebedarf. Die Doppel-GPUs sind zurück: Nach ersten Versuchen von Grafikkartenherstellern bietet nun auch AMD selbst mit der "Radeon HD 3870 X2" ein Referenzdesign mit zwei Grafikprozessoren an. Die neue Karte soll nach langer Abstinenz Nvidia auch wieder im High-End-Bereich Konkurrenz machen. Das gelingt ihr konstruktionsbedingt nur teilweise - und auch nur auf Kosten von neuen Rekorden bei der Leistungsaufnahme.
/ Nico Ernst
72 Kommentare News folgen (öffnet im neuen Fenster)

Wieder einmal hat AMD eine schwere Geburt hinter sich. Während man Mitte November 2007 im Rahmen der Vorstellung der Spider-Plattform die X2-Grafikkarte überraschend erstmals öffentlich vorführte , lief der Marktstart nicht ganz so glatt wie erhofft. Ab der zweiten Woche des Januar 2008 wurden die Testmuster an die Presse verteilt, als Termin für den Ablauf der Sperrfrist war zunächst der 23. Januar 2008 vorgesehen.

Nicht einmal einen Tag vorher verschob AMD die Frist auf den 28. Januar 2008, und keine 48 Stunden vor diesem neuen Termin legte man noch einen neuen Beta-Treiber nach. Zuvor waren schon eine andere Beta sowie der voll getestete Catalyst 8.1 erschienen. Letzterer ist auch der einzig offiziell zugängliche Treiber, den Käufer der Karte vorerst benutzen können. In den Handel kommt die Karte laut AMD ab sofort.

Von der Unterstützung durch den Treiber ist die X2 auch weit mehr abhängig als andere Modelle, so dass AMD erst recht einigen Aufwand treiben muss. Die 3870 X2 arbeitet intern mit "CrossFire", der Nutzer hat keine Einflussmöglichkeit, wie die zwei GPUs angesteuert werden sollen - das entscheidet allein der Treiber. In der ersten Version des X2-Treibers klappte das beispielsweise mit dem Patch 1.1 für das Spiel Crysis gar nicht, denn es wurde nur eine GPU genutzt, mit entsprechend bescheidener Leistung.

Im Prinzip ist die X2 aber auch gedacht, um erstmals bei AMD die Nutzung von vier GPUs auf zwei Karten zu ermöglichen, AMD nennt das "CrossFire X". Um das zu realisieren, ist noch ein weiterer neuer Treiber fällig, der nach bisheriger Planung Mitte Februar 2008 erscheinen soll. Alle X2-Karten besitzen aber schon die Anschlüsse, über die sich mit den CrossFire-Brücken auch zwei Karten koppeln lassen, AMD hatte das auch bereits demonstriert.

Schon eine einzelne X2 positioniert AMD als Konkurrenz zu Nvidias High-End-Palette der GeForce 8800 GTX und Ultra, eine Region, die mit der R600-Architektur bisher nicht erreicht werden konnte. In den USA rechnet man für die X2 mit Preisen unter 500,- US-Dollar, in Deutschland kosten die Karten nach den bisherigen Preislisten von Versendern knapp unter 400,- Euro. Dafür ist keine Ultra zu haben, GTX-Karten gibt es jedoch schon um 340,- Euro, die neue und kaum langsamere GTS mit 512 MByte ist auch schon unter 300,- Euro verfügbar.

Die Papierform der X2 sieht für AMD also recht gut aus: die im Idealfall doppelte Leistung einer 3870 zu einem Preis, der zwischen GTX und Ultra des Konkurrenten Nvidia liegt. Doch ganz so einfach ist die Rechnung leider nicht.

Konstruktion und Architektur

Grafikkarten mit zwei GPUs sind nichts Neues, gerade für ATI nicht: Das Unternehmen, das jetzt die Grafiksparte von AMD darstellt, hatte seine Rage Fury Maxx mit zwei Grafikprozessoren bereits Ende 1999 auf den Markt gebracht. Die Kopplung von mehreren GPUs auf verschiedenen Karten hatte zuvor schon die später von Nvidia übernommene Firma 3dfx salonfähig gemacht. Nvidia versuchte sich Mitte 2006 mit den GX2-Karten an Doppel-GPUs und auch auf Basis der R600-GPUs von AMD gab es schon vereinzelte "Gemini"-Karten unter anderem von HIS und MSI.

Der Name "X2" ist bei der neuen Radeon folglich auch Programm: Im Prinzip besteht sie aus zwei vollständigen HD 3870 . Die GPUs sind jedoch statt mit 775 mit 825 MHz getaktet. Um die Kühlung zu erleichtern, wurde im Gegenzug der Speicher von 1.125 MHz (effektiv doppelter Takt per DDR) auf 900 MHz gebremst. Jede GPU hat Zugriff auf 512 MByte GDDR3-Speicher, das teurere GDDR4 kommt nicht zum Einsatz. Durch den höheren Takt der GPU verkündet AMD vollmundig eine theoretische Rechenleistung von 1 Teraflops (Multiply/Add) für die X2-Karten.

Die Architektur der X2 basiert auf der R600-GPU, die Golem.de bereits ausführlich vorgestellt hat. Seitdem hat AMD vor allem die Video-Engine "UVD" erneuert, die nun die HD-Codecs VC-1 und H.264 inklusive Ton vollständig in der Grafikkarte dekodieren kann. Auch die Stromsparfuktion "PowerPlay" wurde nachgerüstet. Beide Neuerungen sind auch schon bei den RV670-Karten der Serien 2400 und 2600 zu finden, ebenso bei der 3000er-Serie .

Gegenüber der letzten AMD-Karte, der HD 3870, wurde der X2 noch eine Bridge-Logik für die interne Verbindung der beiden GPUs spendiert. Sie arbeitet mit PCI-Express 1.1 auf 16 Lanes, das jedoch nur auf der Karte selbst, nicht über den System-Bus.

Durch den schlanken Kühlkanal wirkt die X2 auf den ersten Blick deutlich länger, als sie eigentlich ist. Das Lineal zeigt jedoch schon bei 26,6 Zentimetern ein Ende der Grafikstange an, die neue AMD-Karte ist damit genauso lang wie eine GeForce 8800 GTX. Im Gegensatz zu dieser Nvidia-Karte sind die beiden zwingend zu belegenden Strom-Ports für PCIe-Verbinder aber nicht nach oben, sondern senkrecht zur Karte ausgeführt. Das erleichtert das Verlegen der Kabel im PC. Für den Betrieb mit Standardtakten reichen zwei sechspolige Stecker, der eine achtpolige Port ist laut AMD nur fürs Übertakten zu belegen.

Den ersten Rekord bringt die X2 im Wortsinne auf die Waage: Mit 1.020 Gramm ist die 1-Kilo-Klasse der luftgekühlten Grafikkarten nun eröffnet. Wie bei High-End-Karten üblich, saugt der Ventilator der X2 die Luft an und treibt sie durch einen gekapselten Kanal über die Kühlkörper durch das Slotblech aus dem PC-Gehäuse. Um das Gewicht nicht zu sehr zu steigern, ist der erste Heatsink nach dem Lüfter aus Aluminium, erst die zweite GPU ist mit einem Kupferkühler versehen, da dort schon ein recht warmer Wind weht.

Der Luftkanal verjüngt sich zudem direkt nach dem Lüfter, was den Druck erhöht. Die schmale Bauform des Tunnels bedingt aber auch, dass am oberen Rand ein weiterer passiver Kühlkörper sitzen muss. Dieser ist nicht nur ob des typischen ATI-Designs tiefrot lackiert: Ein daneben sitzender Aufkleber weist zurecht darauf hin, dass die Oberfläche für eine Berührung zu heiß wird.

Dass man es mit einem heißen Eisen zu tun hat, merkt man auch unmittelbar nach dem Einschalten eines X2-Rechners: Die Karte faucht auf, als hätte man eben eine Löwin mit Jungen bei der Siesta gestört. Im 2D-Betrieb bleibt der Lüfter dann aber nahezu unhörbar. Schon nach kurzer Last mit 3D-Anwendungen ändert sich das jedoch, die Karte kann durchaus laut werden. Das Geräusch ist jedoch nur ein Rauschen, nicht das Rattern älterer Konstruktionen wie auf der 1900-Serie von ATI. Viel störender ist, dass der Lüfter sich ständig nervös nachregelt. Das können bei Serienkarten die Hersteller aber noch durch andere BIOS-Einstellungen in den Griff bekommen.

Testplattform

Um die High-End-Karten auszureizen, haben wir eine eigene Testplattform aufgesetzt. Die Ergebnisse sind daher mit früheren Tests von Golem.de nicht vergleichbar. Kern des Grafik-Unterbaus ist der momentan schnellste Desktop-Prozessor, der Core 2 Extreme QX9770 mit 3,2 GHz, 12 MByte L2-Cache und Penryn-Architektur . Er ist noch nicht erhältlich, wird von Intel aber schon als Vorserien-Exemplar den Hardware-Testern zur Verfügung gestellt.

Mit einem physikalischen FSB-Takt von 400 MHz (FSB1600) lief der Prozessor auf einem P35-Board (P5K Pro) von Asus mit der BIOS-Version 701 stabil. Zwar garantiert Asus den Betrieb des Mainboards nur bis FSB1333, das neue BIOS erkannte die CPU aber und stellte den höheren Takt selbsttätig ein. Angenehmer Nebeneffekt: Der DDR2-800-Speicher von OCZ (Timings 5-5-5-15) läuft so synchron zum FSB.

Als Betriebssystem kam für alle Tests Windows Vista Ultimate in der 32-Bit-Version zum Einsatz. Leistungszehrende Dienste wie die Datenträgerindizierung oder der Windows Defender wurden abgeschaltet. Der Schwerpunkt bei den getesteten Spielen liegt bei DirectX-10 - immerhin sind inzwischen etliche Titel für diese Grafikschnittstelle erhältlich, zudem werden die Grafikkarten auch ausdrücklich mit DX-10-Fähigkeiten beworben.

Bei den Auflösungen konzentrieren wir uns auf praxisgerechte Werte, die auch populären Monitorformaten entsprechen. So lässt sich etwa von den Messungen in 1.600 x 1.200 Pixeln darauf schließen, dass ein Spiel auch auf den derzeit laut Monitor-Herstellern besonders gut verkauften 22-Zöllern mit 1.680 x 1.050 Pixeln entsprechend läuft.

Gegen die HD 3870 X2 treten eine GeForce 8800 GTX und eine GeForce 8800 GTS mit 512 MByte an. Eine 8800 Ultra stand zum Test nicht zur Verfügung. Da es sich aber nur um ein leicht höher getaktetes Modell der GTX mit sonst gleicher Architektur handelt, würden sich ohnehin keine großen Unterschiede zeigen. Gerade die Ultra-Karten sind jedoch in zahlreichen noch höher getakteten Versionen und auch mit Wasserkühlungen erhältlich.

Auch die von MSI stammenden GeForce-Karten dieses Tests sind ab Werk mit voller Garantie übertaktet, für diesen Test wurden sie statt mit 610/1000 mit 575/900 MHz (GTX) und statt mit 730/970 mit 650/970 MHz (GTS/512) für GPU und Speicher betrieben. Alle Grafikkarten wurden bei abgeschaltetem V-Sync getestet.

Da der letzte Beta-Treiber in der Version 8.451.2.080123a knapp zwei Tage vor Ablauf der Sperrfrist von AMD zur Verfügung gestellt wurde, basieren bis auf Crysis die Messungen auf dem Catalyst 8.1. Dies ist aber auch der einzige Treiber, der bisher öffentlich zugänglich gemacht wurde.

Synthetische Benchmarks

3DMark06 ist inzwischen technisch deutlich überholt - aber immer noch das klassische Testprogramm für Grafikkarten. Der Benchmark basiert nicht auf der Engine eines kommerziellen Spiels, spricht aber auch auf kleine Leistungsunterschiede sehr fein an.

So wundert es auch nicht, dass sich der theoretische Leistungsvorteil der X2 hier besonders deutlich zeigt. Sowohl im Gesamt-Score wie auch den Einzeltests mit Shader Model 2.0 und 3.0 ist die Karte stets rund ein Drittel schneller als die GeForce-Konkurrenz.

Wie sehr dieser Benchmark aber von den Taktfrequenzen bei CPU, GPU und Speicher abhängig ist, zeigt die neue GTS: Sie schlägt trotz schmalerem Speicherbus mit ihrem höheren Takt die GTX.

Crysis

Dieser 3D-Shooter aus deutschen Landen gilt zurecht als Hardware-Fresser: Jedes Quäntchen Leistung der Grafikkarte kann Crysis in noch bessere Bilder umsetzen. Zwar ist das Spiel auch auf schwächeren GPUs schon in der Detail-Einstellung "Medium" spielbar, sieht dann aber kaum besser aus als drei Jahre alte DirectX-9-Titel. Erst "High" bringt realistischere Beleuchtung und zahlreiche Spezialeffekte, DirectX-10 ist erst mit "Very High" möglich - wenn man nicht die Konsole bemüht oder die Konfigurationsdateien ändert.

Als bisher einzigen Test dieses Artikels kommt für Crysis ein aktualisierter Treiber von AMD zum Einsatz, der jedoch nicht speziell für dieses Spiel gedacht ist. Die Verbesserungen sollen auch in Catalyst 8.2 Einzug halten. Mit den ersten Treibern war Crysis rund ein Drittel langsamer auf der HD 3870 X2. Laut AMD wurde die zweite GPU nicht genutzt, da Crytek mit dem auch hier verwendeten Patch 1.1 für Crysis Änderungen in den Code-Pfaden vorgenommen hatte. Das Spiel kann eine zweite GPU selbst erkennen und zeigt das im Entwicklermodus auch an, wie im nebenstehenden Screenshot an "MGPU" zu sehen ist.

Obwohl die aufwendigen Shader-Effekte in Crysis mit kräftiger Mithilfe von Nvidia entwickelt wurden, ist das Spiel inzwischen auch auf einer AMD-Karte gut spielbar. Die X2 kann die GTX fast durchweg schlagen, die neue GTS mit ihren hohen Takten liegt aber häufig gleichauf und wird mit rund 300,- Euro, sofern es speziell um Crysis geht, zu einem guten Angebot. Nvidia empfiehlt für sehr hohe Auflösungen mit allen Details und Filterfunktionen dennoch ein Gespann aus drei Ultra-Karten mit Triple-SLI.

In "Very High" ist das Spiel auch jenseits von 1.280 x 1.024 Pixeln mit den hier getesteten Karten kaum spielbar, insbesondere das durch Nebel und äußerst realistisches Schneetreiben geprägte Level "Paradise Lost" verkommt schnell zur Dia-Show. Mit dem Patch 1.1 lässt sich dieser Abschnitt über die Datei "benchmark_cpu2.bat" nun auch recht einfach testen, zudem patcht die Aktualisierung ohne Hinweis auch einen Spielstand für dieses Level in die Verzeichnisse.

Die nach Erscheinen mit den damals aktuellen AMD-Treibern zu beobachtenden Bildfehler wie flimmernde Texturen traten mit allen drei getesteten Treiberversionen inklusive dem offiziellen Catalyst 8.1 nicht auf. Kurze Ausflüge in andere Level zeigten, dass AMD nicht nur die Fehler in den stets für Benchmarks genutzten Levels "Contact" und "Paradise Lost" behoben hat.

Anti-Aliasing ist mit einer Grafikkarte, auch mit einer X2, für Crysis immer noch nicht zu empfehlen: Schon die Einstellung 2x ist rund 20 Prozent langsamer. Da das Spiel intern schon die gröbsten Kanten filtert, ist der optische Vorteil im Vergleich zu anderen Titeln ohnehin gering und erst ab 4x deutlich sichtbar. Die Messungen erfolgten daher auf allen Karten ohne Anti-Aliasing und anisotropische Filterung.

Unreal Tournament 3

Der neben Crysis am heißesten erwartete DirectX-10-Titel ist die nach offizieller Nomenklatur dritte Ausgabe des Multplayer-Shooters Unreal Tournament. Wie alle Unreal-Spiele ist auch diese Version allerdings eher von der CPU als von der GPU limitiert. Wir testen daher mit 4x-Anti-Aliasing und 8x-Anisotropie, was alle Grafikkarten gut bewältigen.

Die X2 fällt jedoch so stark zurück, dass der Verdacht naheliegt, dass auch hier die zweite GPU nicht immer genutzt wird - AMD konnte das kurzfristig nicht bestätigen. Schalteten wir jedoch die Filterfunktionen aus, war die X2 auch bei 1.920 x 1.200 Pixeln über 100 fps schnell - das spricht für ein Problem mit dem Anti-Aliasing bei diesem Spiel. Das gilt sowohl für das Botmatch auf der Map "Coret" wie auch den Flug durch das große Außenlevel "Torlan" mit seinen hohen Sichtweiten.

Zu beachten ist dabei stets, dass UT3 über die Option "Smooth Framerate" - seit Patch 1.1 im Menü - selbst dafür sorgen kann, dass die Bildrate nicht unter 22 fps und nicht über 62 fps liegt. Diese Voreinstellungen reduzieren dabei im schlimmsten Fall Details, was sich aber beim Spielen nur noch erahnen lässt, beim Betrachten von Demo-Replays aber sichtbar ist. Für die Tests der maximalen Leistung der Grafikkarten schalteten wir diese Option daher aus.

Company of Heroes

Einen Sonderfall stellt das Echtzeit-Strategiespiel Company of Heroes dar. Mit einem 1,7 Gigabyte großen Patch brachten die Entwickler dem Titel nach Erscheinen DirectX-10-Funktionen bei. Die optischen Unterschiede fallen nicht so spektakulär aus wie etwa bei Crysis, sind aber durch mehr HDR-Funktionen und Spezialeffekte wie bei Wasser und Explosionen gegenüber dem DX9-Modus deutlich sichtbar.

Die X2 schlägt hier - offenbar durch konsequente Nutzung der zweiten GPU - die GTX deutlich, selbst wenn wie bei allen Grafikkarten im Spiel 4x-Antialiasing und 8x-Anisotropie eingeschaltet werden. Die hoch getaktete GTS/512 liegt jedoch bei 1.280 x 1.024 Pixeln vorne.

Wie sehr ein DirectX-10-Codepfad bremsen kann, zeigte sich, als wir die X2-Karte bei 1.920 x 1.200 Pixeln mit sonst unveränderten maximalen Einstellungen unter DirectX-10 - aber immer noch mit Vista - testeten: Aus den 33,9 fps wurden 58,1 fps. Dass diese 70 Prozent Mehrleistung den Verzicht auf ein bisschen optische Opulenz rechtfertigen, kann wohl jeder Spieler leicht entscheiden.

Call of Juarez / Trackmania United

Die Demo-Version des Western-Shooters "Call of Juarez" wird von AMD gerne als DX-Benchmark empfohlen. Seit jeher beteuern die Entwickler von Techland aber, keinerlei AMD-spezifische Optimierungen vorgenommen zu haben und sich nur an Standardfunktionen der Grafikschnittstelle orientiert zu haben. Dass das offenbar zutrifft, zeigen die aktuellen Benchmarks - bisher lag AMD hier uneinholbar vorne .

Inzwischen hat Nvidia jedoch anscheinend seinen Treibern auch dieses Spiel beigebracht - und schließt fast bist zur Doppelkarte X2 auf. Wir testen mit 1 Kilobyte großen Shadow-Maps ohne Anti-Aliasing und normalen Details für die Schatten.

Im Schnitt nicht einmal halb so schnell ist AMDs neue High-End-Karte beim reinen DirectX-9-Spiel "Trackmania United", das über knallbunte Shader-Effekte inklusive HDR verfügt. Der interne Benchmark des Spiels mit 4x-Anti-Aliasing und 8x-Anisotropie bei der Detaileinstellung "Sehr hohe Qualität" spiegelt auch das reale Spielverhalten des Fun-Racers wider: Die Rennen ruckeln.

Der Grund scheint wieder einmal in einem bestimmten Shader zu liegen. Es reicht bei sonst unveränderten Einstellungen, die Bewegunsunschärfe auszuschalten - die zudem den Schwierigkeitsgrad erhöht - und schon ist die AMD-Karte rund ein Drittel schneller. Auch in 1.920 x 1.200 Pixeln kommt sie so noch auf glatte 26 fps im Durchschnitt, was bei einem Rennspiel für die meisten Anwender noch als gut spielbar gilt.

Leistungsaufnahme

Neben der Rechenleistung ist die dafür benötigte elektrische Leistung bei den drei getesteten Karten besonders interessant. Immerhin tritt hier eine GPU in 80 Nanometern Strukturbreite (GTX) gegen einen Grafikprozessor mit 65 Nanometern (GTS/512) und gegen zwei Chips mit 55 Nanometern auf der X2 an. Gemessen wird stets die primärseitige Last an der Steckdose, also der gesamte Rechner inklusive dem mit einer TDP von 130 angegebenen Prozessor, der sich jedoch nur bei den Volllast-Tests deutlich auswirkt. Die Stromsparfunktionen von Vista beließen wir wie bei allen Tests auf "Höchstleistung", der QX9770 taktet sich dennoch mit einem Multiplikator von 6x auf 2,4 GHz herunter.

Schon bei einem mehrere Minuten ruhenden Aero-Desktop von Windows Vista braucht das System mit der X2-Karte 10 Watt mehr als die GTS/512, nur die fertigungstechnisch überholte GTX ist mit nochmals 11 Watt noch gefräßiger. Umgekehrt betrachtet verbraucht die GTX bei annähernd gleicher Rechenleistung stets mindestens 21 Watt mehr als die GTS/512. Diese zusätzliche Leistungsaufnahme ist der Preis für einen Spielerechner, denn sie entsteht auch, wenn gerade keine 3D-Anwendung läuft - wann immer der PC läuft.

Lässt man den 3DMark06 in der Szene "Firefly Forest" bei 8x-Anti-Aliasing und 8x-Anisotropie in einer Schleife laufen, so ziehen alle drei Karten ihr Maximal-Budget aus PCIe-Slot und zusätzlicher Stromversorgung. Wieder ist die GTS/512 mit 248 Watt vergleichsweise genügsam, die ältere GTX liegt mit 267 Watt nur leicht darüber. Mit 357 Watt stellt das System mit der 3870 X2 aber einen neuen Negativrekord für einen Rechner mit einer Grafikkarte auf. Bei einer 130-Watt-CPU ist so an einen Betrieb mit einem guten Netzteil mit angegebener Maximalleistung von weniger als 450 Watt nicht zu denken.

Dabei ist jedoch das von den Mobil-GPUs geerbte "PowerPlay" der X2-Karte recht effektiv. Auch während des Last-Tests schwankte die Leistungsaufnahme bei konstanter Bildwiederholrate zwischen 240 und 340 Watt, die Stromsparfunktion ist also sehr wirkungsvoll. Dieses Verhalten zeigte sich auch bei den getesteten Spielen.

Dennoch ist der Strombedarf der X2 deutlich zu hoch. Unsere Messergebnisse decken sich auch mit den Angaben von AMD, nach denen die Karte auf eine maximale Leistungsaufnahme von 196 Watt ausgelegt ist. Selbst mit wenig energieeffizienten Glühlampen lässt sich mit so viel Energie ein Raum von 100 Quadratmetern hell beleuchten.

Fazit:

Nach der Presseveranstaltung zur X2 meinte ein Redakteur einer großen deutschen Computerzeitschrift mit hochgezogenen Augenbrauen beim Kaffee: "Da sind wir also wieder bei 200 Watt..." - womit er leider Recht hat. Trotz 55-Nanometer-Fertigung brauchen die beiden GPUs und der Speicher der Radeon HD 3870 X2 viel zu viel Strom. Anders kann AMD im Moment offenbar keine High-End-Karte bauen, welche die nun über ein Jahr alte G80-Architektur von Nvidia schlägt.

Und der Sieg in der Rechenleistung gehört der X2 auch nur, wenn der Treiber automatisch die beiden GPUs einer Anwendung zur Verfügung stellt. Erzwingen kann man das bis jetzt noch nicht. Ob AMD dem Anwender hier auch Eingriffsmöglichkeiten lässt, ist noch nicht abzusehen. Dieses Problem haben zwar alle Lösungen mit mehr als einer GPU, nur schleppt man den zweiten Grafikprozessor auf der X2 samt seiner Leistungsaufnahme ständig mit, ob er nun genutzt wird oder nicht. Eine zweite Karte kann man immerhin noch zeitweise ausbauen.

Das Beispiel des Crysis-Patches 1.1 zeigt aber, dass es den Treiber-Entwicklern von AMD gelingt, schnell zu reagieren. Mit der X2 ist das DirectX-Vorzeigespiel bei minimal reduzierten Details in mittleren Auflösungen gut spielbar. Das gelingt aber auch den Nvidia-GPUs - an die Crysis besonders gut angepasst ist - mit einer Karte. Will man den Shooter mit allen Details samt Filterfunktionen flüssig spielen, sind immer noch zwei Nvidia-Karten Pflicht.

In manchen Spielen liegt das Potenzial der X2 brach: Wo keine Treiberunterstützung, da keine deutliche Leistungssteigerung durch die zweite GPU. Im Einzelfall kann der Anwender das vorher nicht wissen. Stabil und mit guter Bildqualität versehen sind die Treiber aber auch schon in den ersten Versionen. Da AMD auch langfristig mit dem noch nicht verfügbaren CrossFire X samt zweier X2-Karten auf Lösungen mit mehr als einem Grafikprozessor setzt, erscheint die Hoffnung auf Anpassungen von weiteren Spielen per Treiber berechtigt. Zudem erscheinen neue Versionen des Catalyst regelmäßig jeden Monat.

Das Beste an der X2 ist aber, dass Nvidia auch im prestigeträchtigen High-End-Segment endlich wieder Konkurrenz hat. Über ein Jahr überließ ATI dem Konkurrenten hier völlig kampflos das Feld, wohl auch bedingt durch die Übernahme durch AMD. In der Folge waren die schnellsten Grafikkarten im Preis so stabil wie seit Jahren nicht mehr. Jetzt kommt auch in diesen Teil des Grafikgeschäfts wieder Bewegung: Unbestätigten Angaben zufolge stellt Nvidia mit der " GeForce 9800 GX2 " in Kürze ebenfalls wieder eine Grafikkarte mit Doppel-GPU vor. Ob diese Doppel-Whopper aber wie die ersten GX2-Karten wieder nur eine Modeerscheinung bleiben, entscheiden die Käufer.


Relevante Themen