Original-URL des Artikels: https://www.golem.de/0611/48836.html    Veröffentlicht: 08.11.2006 20:00    Kurz-URL: https://glm.io/48836

GeForce 8800: DirectX 10, mehr Speicher und Strombedarf

Nvidia stellt zwei neue High-End-GPUs für Spiele vor

Nach monatelangem Brodeln der Gerüchteküche hat Nvidia jetzt seinen als "G80" entwickelten Grafikprozessor entschleiert. Der Chip kommt in zwei GeForce-8800-Varianten auf den Markt, ist die erste GPU mit voller Unterstützung von DirectX 10 und arbeitet mit universellen Rechenwerken für Pixel- und Vertex-Shader. Der GeForce 8800 unterstützt zudem Physikberechnungen auf der GPU und soll eine deutlich bessere Bildqualität liefern. Passend gibt es auch einen neuen SLI-Chipsatz - allerdings vorerst nur für Intels Core-2-Prozessoren.

Die neuen Grafikprozessoren und die Grafikkarten, auf denen sie verbaut sind, nennt Nvidia in Verbindung mit dem neuen Chipsatz "NForce 680i SLI" die "ultimative Spiele-Plattform". Nach Willen des Chipherstellers sollen die Spiele-Fans ihre Rechner damit für die Weihnachtsferien aufrüsten.

GeForce 8800 GTX
GeForce 8800 GTX
Dafür muss die Kundschaft jedoch tief in die Tasche greifen: Eine Karte mit dem "GeForce 8800 GTX" und inzwischen auf 768 MByte angeschwollener Speichermenge soll ca. 600,- Euro kosten. Auch das leicht abgespeckte Modell "GeForce 8800 GTS" mit 640 MByte kostet ca. 450,- Euro. Bereits seit dem 8. November 2006 sind die Karten verschiedener Hersteller im Online-Handel zu haben, etwa bei Alternate, e-Bug und K&M. Für den Einzelhandel plant Nvidia mit dem 11. November 2006 - also am Samstag nach Vorstellung der Karten - eigene Marketing-Aktivitäten. Hatte ATI sein High-End-Modell X1950 XTX Ende August 2006 noch für überraschende 400,- Euro auf den Markt gebracht, so langt Nvidia nun mit seiner schnellsten Karte wieder kräftig zu.

Im Schnitt doppelt so schnell wie 7900 GTX
Im Schnitt doppelt so schnell wie 7900 GTX
Als neue Generation soll der G80 traditionsgemäß im Schnitt wieder doppelt so schnell sein wie das Modell der vorherigen Architektur, was hier dem 7900 GTX entspricht. Nvidia zieht für seine Vergleiche dabei nicht einmal den ersten Vertreter des GeForce 7, den 7800 GTX, heran. Laut eigenen Benchmarks von Nvidia ist eine einzelne 8800 GTX schneller als zwei 7900 GTX im SLI-Verbund. Und schneller als eine Radeon X1950 XTX von ATI sowieso, meint Nvidia.

Neue GPU mit großem Heatspreader
Neue GPU mit großem Heatspreader
Um diese ehrgeizigen Ziele zu erreichen, hat Nvidia nicht nur eine von Grund auf neue Architektur mit "Unified Shaders", also nicht mehr länger getrennten Einheiten für Pixel- und Vertex-Shader, entwickelt. Auch die Taktung des Grafikprozessors ist noch asynchroner als bei der Vorgängergeneration ausgefallen. Die gesamte GPU taktet beim GTX-Modell zwar nur mit heute nicht rekordverdächtigen 575 MHz, die Shader-Einheiten aber im 3D-Betrieb mit 1.350 MHz. Der Speicher - wenn auch noch als GDDR-3 ausgeführt - läuft bei der neuen GTX mit physikalisch 900 MHz. Das GTS-Modell ist mit 500 MHz für den Kern und 1.200 MHz für die Shader sowie 800 MHz beim Speicher nur geringfügig langsamer getaktet - dafür ist hier aber die Speichermenge auf 640 MByte beschränkt.

Komplett neue GPU-Architektur

Bei der Adressierung des Speichers beginnen bereits die Neuerungen des G80-Prozessors. Hatte sich ATI bereits mit der Radeon-X1900-Generation für einen Ringbus und mit dem Radeon X1950 für GDDR-4-Speicher entschieden, so bindet Nvidia die GDDR-3-Chips noch einzeln an die GPU an. Auf Grund der Speichermenge bei den GTX- und GTS-Modellen des GeForce 8800 ergibt sich so ein Speicherbus von 384 bzw. 320 Bit. Dieser Unterschied macht sich deutlich in der jeweiligen Speicherbandbreite bemerkbar: 86,4 GByte pro Sekunde sind es beim GTX, beim GTS nur noch 64. Somit ist die günstigere Karte auf Grund des Busses - und nicht nur durch die nur wenig geringeren Taktungen - deutlich langsamer.

Übersicht der Shader-Modelle
Übersicht der Shader-Modelle
Wie Nvidia unumwunden zugibt, lag der Design-Schwerpunkt des G80 auf den "Unified Shadern". Sie sind zwar nicht zwingende Voraussetzungen für DirectX 10, aber - wie auch schon ATI im Gespräch mit Golem.de betonte - die einzig effiziente Lösung. Der Grund sind vor allem die sehr viel längeren Shader-Programme des "Shader Model 4.0" von DirectX 10. Sie können nun bis zu 65.535 Befehle lang sein, beim Shader Model 3.0 von DirectX 9 waren es noch 512 Instruktionen. Diese langen Code-Folgen sind bei Pixel- wie Vertex-Shadern möglich. Da zudem während des Laufs eines Shader-Programms auch Verzweigungen und Ladeoperationen möglich sind, dürfte sich der Grafik-Code moderner Spiele immer mehr dem berühmten Teller Spaghetti nähern, der in der Programmierung als Vergleich für die Schwierigkeit von Parallelisierung in Hardware gern benutzt wird: Stehen die Nudeln auf dem Tisch, scheinen sie endlos verschlungen. Ungekocht ist dasselbe Nahrungsmittel aber schön gerade und für parallele Nahrungsaufnahme ideal - aber viel zu hart.

Schiff wartet auf Wasser: Ungleich ausgelastete Shader
Schiff wartet auf Wasser: Ungleich ausgelastete Shader
Auf Grafikchips übertragen bedeutet das: Wirft man eine aufgerollte Gabel Spaghetti (-Code) in einen Grafikprozessor, so muss er das Gewirr aufdröseln. Anders als bei der Pasta ist es aber möglich, dass das eine Ende einer Shader-Nudel auf einmal warten muss, weil es mit einer anderen Teigware untrennbar verknotet ist. Die Threads behindern sich gegenseitig, was Nvidia auch in nebenstehender Grafik dargestellt hat.

Nvidia-Demo 'Adrianne': Nahe am Fotorealismus
Nvidia-Demo 'Adrianne': Nahe am Fotorealismus
Es gilt also, alle Nudeln möglichst einzeln zu erwischen und viel davon parallel zu verarbeiten. Dafür hat Nvidia statt der bisherigen Schlacht um immer mehr Pixel- und Vertex-Einheiten für die neue GTX 128 "Stream Processors" geschaffen, bzw. 96 der Rechenwerke beim GTS. Sie sind relativ kleine Funkionseinheiten, die aber universell für Pixel- und Vertex-Shading dienen. Dazu kommt auch noch die bei Nvidia nun ausdrücklich vorgesehene Physik-Berechnung auf der GPU - ob außer den ersten Demos mit fliegenden Haaren auch mit anderen Physik-Bibliotheken wie PhysX oder Havoc, verriet Nvidia noch nicht.

Zupf: Geometrie-Shader verzerren Modelle in der GPU
Zupf: Geometrie-Shader verzerren Modelle in der GPU
Mit DirectX 10 ziehen auch die "Geometry Shaders" in die Spiele-Programmierung ein, was bei professioneller Animation bereits üblich ist. Die GPU kann damit ohne den Hauptprozessor auch zusätzliche Dreiecke erstellen oder aus dem 3D-Model löschen. Damit kann beispielsweise eine Spielfigur - in gewissen Grenzen - ihr Aussehen ändern, was Nvidias Demos mit einem Frosch zeigen, den man kräftig an der Backe oder dem Augenlid ziehen kann. Da die Geometrie-Shader ihre Programm auch auf sich selbst anwenden können, ist zudem die Schattenberechnung einfacher: Was eine Spielfigur an Schatten werfen kann, ist der GPU ohne Hilfe von außen schon bekannt. Bisher war die Schattenberechnung - die unter anderem Doom3 zu seinem damals beeindruckenden Look verhalf - äußerst verzwickt und eine große Last für GPU wie CPU.

Eine FPU, ein Scheduler, aber viele Stream-Einheiten
Eine FPU, ein Scheduler, aber viele Stream-Einheiten
Um die 128 Stream-Prozessoren immer gut auszulasten, hat Nvidia sich eine vollmundig "GigaThread" genannte Technik ausgedacht. Ein eigener Scheduler - um im Bild zu bleiben: eine winzig kleine Gabel für nur einen Spaghetti - soll die Shader-Programme optimal auf die Rechenwerke verteilen. Wie das klappt und wie effektiv es bei den noch nicht vorhandenen DirectX-10-Spielen ist, verrät Nvidia noch nicht.

Die neue Mehrleistung durch die 128 Rechenwerke steckt Nvidia bei schon verfügbaren Spielen vorerst in höhere Frameraten bei mehr Bildqualität: 16faches Anti-Aliasing ist mit dabei, nun auch - wie bei ATIs X1900-Serie schon von Anfang an - in Verbindung mit den Überstrahl-Effekten des Rendering mit "High Dynamic Range" (HDR). Auch mit den höchsten Qualitätseinstellungen sollen die G80-Karten immer noch deutlich schneller sein als ihre Vorgänger. Vor allem für die besseren Filter hat Nvidia die Speichermenge auf den Karten erhöht.

Heißer Riesen-Chip

Die neue Architektur hat ihren Preis, der sich nicht nur in Euro bemisst: Mit 681 Millionen Transistoren ist der G80 fast doppelt so groß wie sein Vorgänger. Dennoch wird die GPU weiterhin bei TSMC in 90 Nanometern Strukturbreite gefertigt. Laut Nvidia kann der taiwanische Auftragshersteller nur mit dieser Fertigungstechnologie eine hohe Ausbeute garantieren. Für den Chip-Hersteller ist es bei diesem Produkt Priorität, stets lieferfähig zu sein - auch über Weihnachten sollen die 8800 GTX und GTS stets verfügbar sein, verspricht Nvidia.

Monster-Chip: Nur wenige G80 passen auf einen Wafer
Monster-Chip: Nur wenige G80 passen auf einen Wafer
Ein derart komplexer Chip hat jedoch in 90 Nanometern Strukturbreite einen enormen Stromhunger. Zum Vergleich: Die 681 Millionen Transistoren entsprechen knapp fünfeinhalb Pentium 4 mit dem ersten Prescott-Kern in 90 nm - und auch der wurde wegen seiner Leistungsaufnahme kräftig gescholten. Allerdings sind die Strukturen eines PC-Prozessors auch bei gleicher Strukturbreite noch stromhungriger als die einer GPU.

Enormer Stromverbrauch
Enormer Stromverbrauch
Nvidia ist sich des Strom-Dilemmas bewusst und gibt sich diesmal überraschend offen, was die genauen Zahlen betrifft. Schon im 2D-Modus, also bei ruhendem Desktop, sollen die G80-Karten 64 Watt aufnehmen, bei Spielen sind es zwischen 117 und 146 Watt. Nvidia hat dafür Kombinationen aus 130 Anwendungen getestet. Die Spannungswandler auf der Karte sind sogar auf bis zu 183 Watt ausgelegt, wie Nvidia Golem.de mitteilte.

Diese Leistung kann eine der neuen GTX-Karten aber nur aufnehmen, wenn sie kräftig übertaktet und entsprechend gekühlt wird - ob dann der heiße Luft aus dem Gehäuse blasende Zwei-Slot-Kühler beider GeForce-8800er-Modelle noch ausreicht, bleibt abzuwarten.

Lange GTX-Karte, oben rechts zwei Strom-Ports
Lange GTX-Karte, oben rechts zwei Strom-Ports
Die Spezifikationen für PCI-Express-Grafikkarten sehen nur je 75 Watt Leistungsaufnahme über den Slot oder einen der externen Stromanschlüsse mit sechs Polen vor. Da Nvidia offenbar nicht an den Toleranzen von Mainboards und Netzteilen entlangschrammen wollte, hat man sich bei der 8800 GTX folglich für zwei externe Strom-Ports entschieden, die günstigere GTS kommt mit einem aus. Durch den großen Kühler und die Spannungsversorgung ist das GTX-Modell mit knapp 27 Zentimetern länger als ein ATX-Mainboard - das Gehäuse muss also etwas tiefer sein als das Board. Immerhin hat Nvidia die Stromstecker nach oben herausgeführt, so dass die effektive Einbautiefe nicht noch weiter steigt.

Angesichts dessen wirken die Netzteil-Empfehlungen sogar etwas unterdimensioniert: 400 Watt soll das Kraftwerk für eine GTS leisten, für die GTX 450 Watt. Zu beachten ist jedoch eher die Stromstärke auf der 12-Volt-Schiene des Netzteils, sie soll laut Nvidia 30 bzw. 26 Ampere betragen.

Neuer Chipsatz und Fazit

Für einen neuen Grafikprozessor hat Nvidia auch immer einen neuen Chipsatz parat - für den GeForce 8800 heißt der empfohlene Unterbau NForce 680i SLI. Das "i" im Namen hat seinen Grund: Der Chipsatz ist zunächst nur für Intel-Prozessoren zu haben. Bisher war Nvidias schnellste Spieleplattform stets mit einer AMD-CPU ausgestattet. Inzwischen, so Nvidia, sind die schnellsten Spieleprozessoren aber aus Intels Core-2-Serie mit zwei oder vier Kernen. Dennoch, so teilte Nvidia mit, wolle man auch einen neuen AMD-Chipsatz vorstellen, sobald der Prozessor-Hersteller seine 4x4-Plattform präsentiert.

680i-Board mit SLI-Karten
680i-Board mit SLI-Karten
Wie schon beim 590 SLI bietet der 680i als wesentliche Funktion für Spielerechner zwei x16-Slots für Grafikkarten - nun aber auch zusätzliche PCIe-Lanes für eine dritte Grafikkarte. Diese soll laut Nvidia entweder für Physik-Berechnungen dienen oder im SLI-Betrieb einen dritten Monitor ansteuern. Letzteres erscheint angesichts von Windows Vista gar nicht so abwegig: Dessen 3D-Oberfläche benötigt auch Grafikleistung, die sich - wenn etwa Chat-Programme während des Spiels laufen sollen - eventuell mit dem Game beißen könnte.

Vista erscheint neben der Chance auch als größtes Problem von Nvidias G80 - es ist nämlich noch nicht erhältlich. Die DirectX-10-Funktionen der achten GeForce-Generation liegen derzeit brach, obwohl man die Karten schon kaufen kann. Selten gab es in der Windows-Geschichte die passende Hardware, aber nicht das Betriebssystem, meist war es umgekehrt.

Crysis: Hoffnungsträger für DirectX 10
Crysis: Hoffnungsträger für DirectX 10
Ob es sinnvoll ist, jetzt schon 450,- bis 600,- Euro in eine Grafikkarte zu investieren, deren Funktionen vielleicht erst in fünf Monaten mit den ersten DirectX-10-Spielen genutzt werden können, erscheint angesichts des Wertverlustes immerhin zweifelhaft. Für den G80 sprechen außer der technischen Faszination dennoch die höhere Leistung auch bei schon erhältlichen Spielen und die gesteigerte Bildqualität.

Völlig gegen den Trend zu sparsameren Prozessoren bei steigenden Energiepreisen läuft jedoch der nochmals gesteigerte Stromhunger von Nvidias neuem Produkt. Wer wirklich für einige tausend Euro den ultimativen Spiele-PC bauen will, kommt mit einem Core 2 Extreme QX6700 (Quad-Core) und zwei GeForce 8800 GTX auf eine Netto-Leistungsaufnahme von rund 500 Watt - das ist kein bisschen sparsamer als der Spiele-PC von vor einem Jahr, nur schneller und bunter.  (nie)


Verwandte Artikel:
Nvidias G80 - mit Wasserkühlung und ab Ende November?   
(06.10.2006, https://glm.io/48229 )
Nvidias nächster GeForce-Chip kommt mit Physikbeschleunigung   
(22.09.2006, https://glm.io/47972 )
GeForce-7-Nachfolger G80 doch ohne Unified Shader Model?   
(23.02.2006, https://glm.io/43569 )
AI-Beschleuniger: Nvidia bringt zwei Varianten der Tesla V100   
(21.06.2017, https://glm.io/128497 )
Nvidias GV100-Chip: "Wir sind am Limit des technisch Möglichen"   
(11.05.2017, https://glm.io/127773 )

Links zum Artikel:
Nvidia (.com): http://www.nvidia.com

© 1997–2019 Golem.de, https://www.golem.de/