Test: Radeon 3870 X2 - AMDs mühsame Rückkehr ins High-End

Wieder einmal hat AMD eine schwere Geburt hinter sich. Während man Mitte November 2007 im Rahmen der Vorstellung der Spider-Plattform die X2-Grafikkarte überraschend erstmals öffentlich vorführte , lief der Marktstart nicht ganz so glatt wie erhofft. Ab der zweiten Woche des Januar 2008 wurden die Testmuster an die Presse verteilt, als Termin für den Ablauf der Sperrfrist war zunächst der 23. Januar 2008 vorgesehen.
Im Prinzip ist die X2 aber auch gedacht, um erstmals bei AMD die Nutzung von vier GPUs auf zwei Karten zu ermöglichen, AMD nennt das "CrossFire X". Um das zu realisieren, ist noch ein weiterer neuer Treiber fällig, der nach bisheriger Planung Mitte Februar 2008 erscheinen soll. Alle X2-Karten besitzen aber schon die Anschlüsse, über die sich mit den CrossFire-Brücken auch zwei Karten koppeln lassen, AMD hatte das auch bereits demonstriert.
Schon eine einzelne X2 positioniert AMD als Konkurrenz zu Nvidias High-End-Palette der GeForce 8800 GTX und Ultra, eine Region, die mit der R600-Architektur bisher nicht erreicht werden konnte. In den USA rechnet man für die X2 mit Preisen unter 500,- US-Dollar, in Deutschland kosten die Karten nach den bisherigen Preislisten von Versendern knapp unter 400,- Euro. Dafür ist keine Ultra zu haben, GTX-Karten gibt es jedoch schon um 340,- Euro, die neue und kaum langsamere GTS mit 512 MByte ist auch schon unter 300,- Euro verfügbar.
Die Papierform der X2 sieht für AMD also recht gut aus: die im Idealfall doppelte Leistung einer 3870 zu einem Preis, der zwischen GTX und Ultra des Konkurrenten Nvidia liegt. Doch ganz so einfach ist die Rechnung leider nicht.
Konstruktion und Architektur
Grafikkarten mit zwei GPUs sind nichts Neues, gerade für ATI nicht: Das Unternehmen, das jetzt die Grafiksparte von AMD darstellt, hatte seine Rage Fury Maxx mit zwei Grafikprozessoren bereits Ende 1999 auf den Markt gebracht. Die Kopplung von mehreren GPUs auf verschiedenen Karten hatte zuvor schon die später von Nvidia übernommene Firma 3dfx salonfähig gemacht. Nvidia versuchte sich Mitte 2006 mit den GX2-Karten an Doppel-GPUs und auch auf Basis der R600-GPUs von AMD gab es schon vereinzelte "Gemini"-Karten unter anderem von HIS und MSI.
Durch den schlanken Kühlkanal wirkt die X2 auf den ersten Blick deutlich länger, als sie eigentlich ist. Das Lineal zeigt jedoch schon bei 26,6 Zentimetern ein Ende der Grafikstange an, die neue AMD-Karte ist damit genauso lang wie eine GeForce 8800 GTX. Im Gegensatz zu dieser Nvidia-Karte sind die beiden zwingend zu belegenden Strom-Ports für PCIe-Verbinder aber nicht nach oben, sondern senkrecht zur Karte ausgeführt. Das erleichtert das Verlegen der Kabel im PC. Für den Betrieb mit Standardtakten reichen zwei sechspolige Stecker, der eine achtpolige Port ist laut AMD nur fürs Übertakten zu belegen.
Den ersten Rekord bringt die X2 im Wortsinne auf die Waage: Mit 1.020 Gramm ist die 1-Kilo-Klasse der luftgekühlten Grafikkarten nun eröffnet. Wie bei High-End-Karten üblich, saugt der Ventilator der X2 die Luft an und treibt sie durch einen gekapselten Kanal über die Kühlkörper durch das Slotblech aus dem PC-Gehäuse. Um das Gewicht nicht zu sehr zu steigern, ist der erste Heatsink nach dem Lüfter aus Aluminium, erst die zweite GPU ist mit einem Kupferkühler versehen, da dort schon ein recht warmer Wind weht.
Der Luftkanal verjüngt sich zudem direkt nach dem Lüfter, was den Druck erhöht. Die schmale Bauform des Tunnels bedingt aber auch, dass am oberen Rand ein weiterer passiver Kühlkörper sitzen muss. Dieser ist nicht nur ob des typischen ATI-Designs tiefrot lackiert: Ein daneben sitzender Aufkleber weist zurecht darauf hin, dass die Oberfläche für eine Berührung zu heiß wird.
Dass man es mit einem heißen Eisen zu tun hat, merkt man auch unmittelbar nach dem Einschalten eines X2-Rechners: Die Karte faucht auf, als hätte man eben eine Löwin mit Jungen bei der Siesta gestört. Im 2D-Betrieb bleibt der Lüfter dann aber nahezu unhörbar. Schon nach kurzer Last mit 3D-Anwendungen ändert sich das jedoch, die Karte kann durchaus laut werden. Das Geräusch ist jedoch nur ein Rauschen, nicht das Rattern älterer Konstruktionen wie auf der 1900-Serie von ATI. Viel störender ist, dass der Lüfter sich ständig nervös nachregelt. Das können bei Serienkarten die Hersteller aber noch durch andere BIOS-Einstellungen in den Griff bekommen.
Testplattform
Als Betriebssystem kam für alle Tests Windows Vista Ultimate in der 32-Bit-Version zum Einsatz. Leistungszehrende Dienste wie die Datenträgerindizierung oder der Windows Defender wurden abgeschaltet. Der Schwerpunkt bei den getesteten Spielen liegt bei DirectX-10 - immerhin sind inzwischen etliche Titel für diese Grafikschnittstelle erhältlich, zudem werden die Grafikkarten auch ausdrücklich mit DX-10-Fähigkeiten beworben.
Bei den Auflösungen konzentrieren wir uns auf praxisgerechte Werte, die auch populären Monitorformaten entsprechen. So lässt sich etwa von den Messungen in 1.600 x 1.200 Pixeln darauf schließen, dass ein Spiel auch auf den derzeit laut Monitor-Herstellern besonders gut verkauften 22-Zöllern mit 1.680 x 1.050 Pixeln entsprechend läuft.
Gegen die HD 3870 X2 treten eine GeForce 8800 GTX und eine GeForce 8800 GTS mit 512 MByte an. Eine 8800 Ultra stand zum Test nicht zur Verfügung. Da es sich aber nur um ein leicht höher getaktetes Modell der GTX mit sonst gleicher Architektur handelt, würden sich ohnehin keine großen Unterschiede zeigen. Gerade die Ultra-Karten sind jedoch in zahlreichen noch höher getakteten Versionen und auch mit Wasserkühlungen erhältlich.
Auch die von MSI stammenden GeForce-Karten dieses Tests sind ab Werk mit voller Garantie übertaktet, für diesen Test wurden sie statt mit 610/1000 mit 575/900 MHz (GTX) und statt mit 730/970 mit 650/970 MHz (GTS/512) für GPU und Speicher betrieben. Alle Grafikkarten wurden bei abgeschaltetem V-Sync getestet.
Da der letzte Beta-Treiber in der Version 8.451.2.080123a knapp zwei Tage vor Ablauf der Sperrfrist von AMD zur Verfügung gestellt wurde, basieren bis auf Crysis die Messungen auf dem Catalyst 8.1. Dies ist aber auch der einzige Treiber, der bisher öffentlich zugänglich gemacht wurde.
Synthetische Benchmarks
3DMark06 ist inzwischen technisch deutlich überholt - aber immer noch das klassische Testprogramm für Grafikkarten. Der Benchmark basiert nicht auf der Engine eines kommerziellen Spiels, spricht aber auch auf kleine Leistungsunterschiede sehr fein an.
Crysis
Dieser 3D-Shooter aus deutschen Landen gilt zurecht als Hardware-Fresser: Jedes Quäntchen Leistung der Grafikkarte kann Crysis in noch bessere Bilder umsetzen. Zwar ist das Spiel auch auf schwächeren GPUs schon in der Detail-Einstellung "Medium" spielbar, sieht dann aber kaum besser aus als drei Jahre alte DirectX-9-Titel. Erst "High" bringt realistischere Beleuchtung und zahlreiche Spezialeffekte, DirectX-10 ist erst mit "Very High" möglich - wenn man nicht die Konsole bemüht oder die Konfigurationsdateien ändert.
Anti-Aliasing ist mit einer Grafikkarte, auch mit einer X2, für Crysis immer noch nicht zu empfehlen: Schon die Einstellung 2x ist rund 20 Prozent langsamer. Da das Spiel intern schon die gröbsten Kanten filtert, ist der optische Vorteil im Vergleich zu anderen Titeln ohnehin gering und erst ab 4x deutlich sichtbar. Die Messungen erfolgten daher auf allen Karten ohne Anti-Aliasing und anisotropische Filterung.
Unreal Tournament 3
Der neben Crysis am heißesten erwartete DirectX-10-Titel ist die nach offizieller Nomenklatur dritte Ausgabe des Multplayer-Shooters Unreal Tournament. Wie alle Unreal-Spiele ist auch diese Version allerdings eher von der CPU als von der GPU limitiert. Wir testen daher mit 4x-Anti-Aliasing und 8x-Anisotropie, was alle Grafikkarten gut bewältigen.
Company of Heroes
Einen Sonderfall stellt das Echtzeit-Strategiespiel Company of Heroes dar. Mit einem 1,7 Gigabyte großen Patch brachten die Entwickler dem Titel nach Erscheinen DirectX-10-Funktionen bei. Die optischen Unterschiede fallen nicht so spektakulär aus wie etwa bei Crysis, sind aber durch mehr HDR-Funktionen und Spezialeffekte wie bei Wasser und Explosionen gegenüber dem DX9-Modus deutlich sichtbar.
Wie sehr ein DirectX-10-Codepfad bremsen kann, zeigte sich, als wir die X2-Karte bei 1.920 x 1.200 Pixeln mit sonst unveränderten maximalen Einstellungen unter DirectX-10 - aber immer noch mit Vista - testeten: Aus den 33,9 fps wurden 58,1 fps. Dass diese 70 Prozent Mehrleistung den Verzicht auf ein bisschen optische Opulenz rechtfertigen, kann wohl jeder Spieler leicht entscheiden.
Call of Juarez / Trackmania United
Die Demo-Version des Western-Shooters "Call of Juarez" wird von AMD gerne als DX-Benchmark empfohlen. Seit jeher beteuern die Entwickler von Techland aber, keinerlei AMD-spezifische Optimierungen vorgenommen zu haben und sich nur an Standardfunktionen der Grafikschnittstelle orientiert zu haben. Dass das offenbar zutrifft, zeigen die aktuellen Benchmarks - bisher lag AMD hier uneinholbar vorne .
Im Schnitt nicht einmal halb so schnell ist AMDs neue High-End-Karte beim reinen DirectX-9-Spiel "Trackmania United", das über knallbunte Shader-Effekte inklusive HDR verfügt. Der interne Benchmark des Spiels mit 4x-Anti-Aliasing und 8x-Anisotropie bei der Detaileinstellung "Sehr hohe Qualität" spiegelt auch das reale Spielverhalten des Fun-Racers wider: Die Rennen ruckeln.
Leistungsaufnahme
Neben der Rechenleistung ist die dafür benötigte elektrische Leistung bei den drei getesteten Karten besonders interessant. Immerhin tritt hier eine GPU in 80 Nanometern Strukturbreite (GTX) gegen einen Grafikprozessor mit 65 Nanometern (GTS/512) und gegen zwei Chips mit 55 Nanometern auf der X2 an. Gemessen wird stets die primärseitige Last an der Steckdose, also der gesamte Rechner inklusive dem mit einer TDP von 130 angegebenen Prozessor, der sich jedoch nur bei den Volllast-Tests deutlich auswirkt. Die Stromsparfunktionen von Vista beließen wir wie bei allen Tests auf "Höchstleistung", der QX9770 taktet sich dennoch mit einem Multiplikator von 6x auf 2,4 GHz herunter.
Lässt man den 3DMark06 in der Szene "Firefly Forest" bei 8x-Anti-Aliasing und 8x-Anisotropie in einer Schleife laufen, so ziehen alle drei Karten ihr Maximal-Budget aus PCIe-Slot und zusätzlicher Stromversorgung. Wieder ist die GTS/512 mit 248 Watt vergleichsweise genügsam, die ältere GTX liegt mit 267 Watt nur leicht darüber. Mit 357 Watt stellt das System mit der 3870 X2 aber einen neuen Negativrekord für einen Rechner mit einer Grafikkarte auf. Bei einer 130-Watt-CPU ist so an einen Betrieb mit einem guten Netzteil mit angegebener Maximalleistung von weniger als 450 Watt nicht zu denken.
Dennoch ist der Strombedarf der X2 deutlich zu hoch. Unsere Messergebnisse decken sich auch mit den Angaben von AMD, nach denen die Karte auf eine maximale Leistungsaufnahme von 196 Watt ausgelegt ist. Selbst mit wenig energieeffizienten Glühlampen lässt sich mit so viel Energie ein Raum von 100 Quadratmetern hell beleuchten.
Fazit:
Nach der Presseveranstaltung zur X2 meinte ein Redakteur einer großen deutschen Computerzeitschrift mit hochgezogenen Augenbrauen beim Kaffee: "Da sind wir also wieder bei 200 Watt..." - womit er leider Recht hat. Trotz 55-Nanometer-Fertigung brauchen die beiden GPUs und der Speicher der Radeon HD 3870 X2 viel zu viel Strom. Anders kann AMD im Moment offenbar keine High-End-Karte bauen, welche die nun über ein Jahr alte G80-Architektur von Nvidia schlägt.
Und der Sieg in der Rechenleistung gehört der X2 auch nur, wenn der Treiber automatisch die beiden GPUs einer Anwendung zur Verfügung stellt. Erzwingen kann man das bis jetzt noch nicht. Ob AMD dem Anwender hier auch Eingriffsmöglichkeiten lässt, ist noch nicht abzusehen. Dieses Problem haben zwar alle Lösungen mit mehr als einer GPU, nur schleppt man den zweiten Grafikprozessor auf der X2 samt seiner Leistungsaufnahme ständig mit, ob er nun genutzt wird oder nicht. Eine zweite Karte kann man immerhin noch zeitweise ausbauen.
Das Beispiel des Crysis-Patches 1.1 zeigt aber, dass es den Treiber-Entwicklern von AMD gelingt, schnell zu reagieren. Mit der X2 ist das DirectX-Vorzeigespiel bei minimal reduzierten Details in mittleren Auflösungen gut spielbar. Das gelingt aber auch den Nvidia-GPUs - an die Crysis besonders gut angepasst ist - mit einer Karte. Will man den Shooter mit allen Details samt Filterfunktionen flüssig spielen, sind immer noch zwei Nvidia-Karten Pflicht.
In manchen Spielen liegt das Potenzial der X2 brach: Wo keine Treiberunterstützung, da keine deutliche Leistungssteigerung durch die zweite GPU. Im Einzelfall kann der Anwender das vorher nicht wissen. Stabil und mit guter Bildqualität versehen sind die Treiber aber auch schon in den ersten Versionen. Da AMD auch langfristig mit dem noch nicht verfügbaren CrossFire X samt zweier X2-Karten auf Lösungen mit mehr als einem Grafikprozessor setzt, erscheint die Hoffnung auf Anpassungen von weiteren Spielen per Treiber berechtigt. Zudem erscheinen neue Versionen des Catalyst regelmäßig jeden Monat.
Das Beste an der X2 ist aber, dass Nvidia auch im prestigeträchtigen High-End-Segment endlich wieder Konkurrenz hat. Über ein Jahr überließ ATI dem Konkurrenten hier völlig kampflos das Feld, wohl auch bedingt durch die Übernahme durch AMD. In der Folge waren die schnellsten Grafikkarten im Preis so stabil wie seit Jahren nicht mehr. Jetzt kommt auch in diesen Teil des Grafikgeschäfts wieder Bewegung: Unbestätigten Angaben zufolge stellt Nvidia mit der " GeForce 9800 GX2 " in Kürze ebenfalls wieder eine Grafikkarte mit Doppel-GPU vor. Ob diese Doppel-Whopper aber wie die ersten GX2-Karten wieder nur eine Modeerscheinung bleiben, entscheiden die Käufer.



