Geforce RTX 3090 Ti im Test: Nvidias Ampere-Brechstange

Weit über drei Jahre ist es her, dass Nvidia zuletzt eine Titan-Karte veröffentlicht hat, die Titan RTX . Mit der Geforce RTX 3090 Ti erscheint quasi deren Nachfolger, zumindest wenn es nach dem Hersteller geht. Ganz neu ist das nicht - schon die Geforce RTX 3090 wurde ähnlich positioniert, tatsächlich unterscheiden sich die beiden Grafikkarten aber teils deutlich mehr, als das eher unauffällige Suffix erahnen lässt.
Denn das neue Modell bildet mit dem Vollausbau des GA102-Chips mit Ampere-Technik nicht nur den Abschluss dieser Generation für das Consumer/Prosumer-Segment, sondern es ist hinsichtlich der Leistungsaufnahme und des Stromanschlusses auch ein Blick in die nicht allzu ferne Zukunft: Nvidia schlägt mit der Geforce RTX 3090 Ti die Brücke zur kommenden Ada-Generation.
Was die Daten der GPU anbelangt, kann sich der aktualisierte Pixelbeschleuniger wenig von seinem Vorgänger absetzen: 84 statt 82 Shader-Multiprozessoren sind kaum der Rede wert, wenngleich ein solcher Vollausbau angesichts von 28,3 Milliarden Transistoren auf 628 mm² technisch durchaus beeindruckt. Das 384 Bit breite Interface mit seinen 24 GByte GDDR6X-Videospeicher ist identisch, dank 2 GByte fassenden Modulen reicht jedoch eine einzig auf der Vorderseite bestückte Platine und es gibt erstmals ECC.
450 Watt via 12VHPWR
Mit einer Geschwindigkeit von 21 GBit/s für eine Datentransferrate von 1 TByte/s hat Nvidia den GDDR6X allerdings deutlich beschleunigt - dessen Stabilität soll einer der Gründe gewesen sein, warum sich die Geforce RTX 3090 Ti über Monate verzögert hat. Zudem geht Nvidia auch abseits des GPU-Vollausbaus in die Vollen: Ein Boost-Takt von 1.860 MHz und real anliegenden 2 GHz ist für solch einen komplexen Grafikprozessor enorm.



| RTX 3090 Ti | RTX 3090 | RTX 3080 Ti | RTX 3080 (12GB) | RTX 3080 (10GB) | |
|---|---|---|---|---|---|
| Chip | GA102-350-A1 (Vollausbau) | GA102-300-A1 (teilaktiviert) | GA102-225-A1 (teilaktiviert) | GA102-220-A1 (teilaktiviert) | GA102-200-KD-A1 (teilaktiviert) |
| FP32-ALUs | 10.752 (84 SM, 7 GPC) | 10.496 (82 SM, 7 GPC) | 10.240 (80 SM, 7 GPC) | 8.960 (70 SM, 6 GPC) | 8.704 (68 SM, 6 GPC) |
| TMUs | 336 | 328 | 320 | 280 | 272 |
| RT-Cores | 84 | 82 | 80 | 70 | 68 |
| Tensor-Cores | 336 | 328 | 320 | 280 | 272 |
| Basis/Boost | 1.560/1.860 MHz | 1.400/1.700 MHz | 1.365/1.665 MHz | 1.260/1.755 | 1.440/1.710 MHz |
| Speicher | 24 GByte GDDR6X | 24 GByte GDDR6X | 12 GByte GDDR6X | 12 GByte GDDR6X | 10 GByte GDDR6X |
| Speed | 21 GBit/s | 19,5 GBit/s | 19 GBit/s | 19 GBit/s | 19 GBit/s |
| Interface | 384 Bit | 384 Bit | 384 Bit | 384 Bit | 320 Bit |
| Bandbreite | 1.008 GByte/s | 936 GByte/s | 912 GByte/s | 912 GByte/s | 760 GByte/s |
| ROPs | 112 | 112 | 112 | 112 | 96 |
| Board-Power | 450 Watt | 350 Watt | 350 Watt | 350 Watt | 320 Watt |
| Strombuchse | 12VHPWR | 12P-Microfit | 12P-Microfit | 12P-Microfit | 12P-Microfit |
| PCIe | Gen4 x16 | Gen4 x16 | Gen4 x16 | Gen4 x16 | Gen4 x16 |
| NV-Link | ja | ja | nein | nein | nein |
| Launch-Preis | $2.000 (2.250€) | $1.500 (1.500€) | $1.200 (1.200€) | (?) | $700 (700€) |
Um eine solche Frequenz überhaupt erreichen zu können, hat Nvidia das Power-Limit von zuvor schon hohen 350 Watt auf satte 450 Watt angezogen. Um das zu gewährleisten, kommt bei allen Geforce RTX 3090 Ti - egal ob Founder's Edition oder die von uns getestete Zotac Amp Extreme Holo - ein neuer Stromanschluss zum Einsatz: Der 12VHPWR für ATX 3.0 und PCIe Gen5 kann bis zu 600 Watt liefern, was bisher vier (!) der seit vielen Jahren verwendeten 8-Pol-Buchsen erfordert hätte.
Ein neues Netzteil ist für die Geforce RTX 3090 Ti nicht notwendig, denn die meisten Hersteller legen der Grafikkarte einen Adapter bei, welcher drei 8-Pin-Kabel erfordert. Mittelfristig wird es passende Strippen geben, damit eine solch unschöne Lösung verhindert wird und bis Ende 2022 erscheinen ATX-3.0-Netzteile, welche von Beginn an für den 12VHPWR ausgelegt sind. Wir werden weiter hinten im Text genauer auf den Stecker eingehen, zuvor aber erstmal die Gaming-Benchmarks.
Die schnellste Rasterization/Raytracing-Grafikkarte
Für unsere Benchmarks verwenden wir einen Ryzen 9 5950X mit Standardtakt und dem AMD-Chipsatztreiber für das Ryzen-High-Performance-Profil. Er wird mit 32 GByte DDR4-3200-CL14 auf einem X570-Board samt PCIe Gen4 kombiniert, rBAR ist eingeschaltet. Als Netzteil kommt ein effizientes Seasonic Prime TX mit 1.000 Watt zum Einsatz.
Alle Anwendungen und Spiele sowie Windows 10 21H2 x64 liegen auf einer Crucial P5 Plus mit 1 TByte, einer der schnellsten verfügbaren NVMe-SSDs. Als Grafiktreiber nutzen wir den Geforce 512.16 von Nvidia und die Radeon Software 22.3.2 von AMD. Wir setzen auf CapframeX(öffnet im neuen Fenster) , um Framerate/Frametimes zu messen.
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
Verglichen mit dem aus Nvidia-Sicht bisherigen Gaming-Topmodell, der Geforce RTX 3080 Ti, kann sich die Geforce RTX 3090 Ti in Rasterization-Spielen um rund 10 Prozent und mit Raytracing um 15 Prozent absetzen. Dabei gilt, dass der Abstand in Titeln wie Assassin's Creed Valhalla oder Horizon Zero Dawn unterdurchschnittlich ausfällt und etwa God of War überdurchschnittlich gut skaliert. Cyberpunk 2077 und Dirt 5 stechen besonders heraus, hier sind es bis zu 18 Prozent.
24 GByte hilfreich bei Minecraft RTX
Ob 12 GByte Videospeicher wie bei der Geforce RTX 3080 Ti oder 24 GByte wie bei der Geforce RTX 3090 Ti sind dabei egal - einzig die Geforce RTX 3080 mit 10 GByte bricht deutlich ein. Schalten wir Raytracing hinzu, ist Cyberpunk 2077 auf dieser Karte zumindest mit Ultra-Details in 4K unspielbar. Wir haben jedoch bewusst auf Upscaling-Techniken wie DLSS oder FSR verzichtet, um die Highend-Grafikkarten entsprechend zu fordern.
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
Andere Raytracing-Titel wie Metro Exodus Enhanced Edition laufen flüssig, einzig das stellenweise fast schon fotorealistische Lego Builder's Journey zuckelt mit 20 fps vor sich hin. Ein Spiel, das von dem enorm großen Videospeicher der Geforce RTX 3090 Ti profitiert, lässt sich zumindest in 4K kaum finden - das gilt auch für sonst so typische Kandidaten wie Doom Eternal mit Raytracing.
Die einzige wirklich nennenswerte Ausnahme ist Minecraft RTX, genauer die Temples and Totems(öffnet im neuen Fenster) genannte Spielwelt: In 4K (ohne DLSS) sind 12 GByte bei längerem Abfliegen der Map zu wenig, es kommt zu Framerate-Einbrüchen und Nachladehängern. Wichtiger sind die 24 GByte ohnehin in Anwendungen, weil sich damit sehr große Datensätze lokal im Videospeicher vorhalten lassen.
24 GByte helfen in Apps, die 450 Watt kaum
Problematisch ist hierbei, dass sich bei Spielen zumindest noch ruckelige Frametimes messen und abbilden lassen, wenn die Grafikkarte etwa Texturen über den PCIe-Bus anfordern muss. Viele Apps hingegen stürzen schlicht ab, teils fehlt selbst eine Fehlermeldung - dazu gehören Adobe Premiere, Blender und Davinci Resolve.
Anders sieht es beim Octane-Render vom Otoy aus, denn hier sich lässt sich der System-RAM als OoC-Memory (Out of Core) konfigurieren und so die Daten dorthin auslagern. Eine Szene mit vier Köpfen, welche knapp 20 GByte belegt, lässt sich mit der Geforce RTX 3090 Ti in gut einer halben Minute berechnen. Die Geforce RTX 3080 Ti braucht über drei Minuten, die Geforce RTX 3080 fast zehn Minuten. Die Radeon RX 6900 XT mit 16 GByte Videospeicher ist mangels Cuda-Unterstützung bei diesem Vergleich außen vor.
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
Wo wir gerade bei Cuda sind: Unabhängig von den 24 GByte hat die Geforce RTX 3090 Ti den Vorteil der RT-Cores, die Raytracing-Berechnungen stärker beschleunigen als die der AMD-Konkurrenz. Wird Optix statt Cuda verwendet, sinkt in Blender die Render-Dauer stärker, als wenn wir den Radeon Pro Render(öffnet im neuen Fenster) statt des HIP einsetzen.
Spitzen von fast 500 Watt
Überdies gibt es Anwendungsfälle für die Tensor-Cores: Sie finden in Davinci Resolve von Blackmagic eine Verwendung und beschleunigen hier das Color-Grading, eine Zoom- sowie eine Upscaling-Funktion (Superscale 2x/4x) und eine namens Speedwarp für Slow-Motion-Material. Auch in Adobes Lightroom CC Classic (Enhance Details) und in Adobes Premiere Pro (Auto Reframe) werden die Inferencing-Rechenwerke genutzt.
Weg von den Apps, hin zur Leistungsaufnahme: Im Leerlauf begnügt sich die Geforce RTX 3090 Ti, konkret unsere hier lautlose Amp Extreme Holo von Zotac, mit 17 Watt. Angesichts des RGB-Lichts geht dieser Wert in Ordnung, eine Geforce RTX 3080 Ti als Founder's Edition liegt allerdings bei 13 Watt. Mit einem 4K60-VP9-Youtube-Video messen wir 40 Watt, was ebenfalls etwas mehr als bei der FE ist. Unter 3D-Last sind es satte 460 Watt bei dank ausladendem 3,5-Slot-Kühlsystem akzeptablem Lüftergeräusch, wenngleich Nvidia von 450 Watt spricht; in diesem Bereich arbeitet offenbar die Telemetrie nicht mehr sauber.



Der Adapter von drei 8-Pin-Anschlüssen auf einen 12VHPWR-Stecker arbeitet wie erwartet: Über jedes Kabel werden rund 150 Watt eingespeist, der PEG-Slot bewegt sich zwischen 10 und 15 Watt. In der Spitze protokollieren wir bis zu 490 Watt, wobei mit Equipment samt feinerer Auflösung durchaus höhere Peaks messbar sein dürften. Spannend: Der 12VHPWR ist inkompatibel zum 12P-Micro-Fit bisheriger Founder's Editions, einige 12P-Micro-Fit-Kabel aber funktionieren mit dem 12VHPWR-Anschluss.
Kommen wir zum Resümee!
Geforce RTX 3090 Ti: Verfügbarkeit und Fazit
Nvidia verkauft die hauseigene Founder's Edition der Geforce RTX 3090 Ti für 2.250 Euro, der Startpreis für Custom-Modelle wie die Amp Extreme Holo von Zotac kosten genauso viel. Zum Vergleich: Die Geforce RTX 3090 ging im Herbst 2020 für 1.500 Euro an den Start und wurde zwischenzeitlich auf 1.650 Euro justiert , faktisch gibt es eine solche Karte aktuell aber kaum für unter 2.000 Euro.
Fazit
Die Geforce RTX 3090 Ti ist eine Ampere-Brechstange, so lautet unsere Headline aus zwei Gründen: Einerseits handelt es sich um das Topmodell mit Ampere-Technik, andererseits hatten wir bisher noch keine (Single-GPU-)Karte mit solch einer hohen Stromstärke im Testlabor. Die zwei Shader-Multiprozessoren, welche die Geforce RTX 3090 Ti der Geforce RTX 3090 voraus hat, sorgen nämlich kaum für mehr Geschwindigkeit.
Also hat Nvidia das Power-Limit von 350 auf satte 450 Watt nach oben geschraubt, damit sich der GPU-Takt unter Last bei rund 2 GHz bewegt und auch der Videospeicher weiter beschleunigt werden konnte. Das Resultat sind rund zehn Prozent mehr Performance, was angesichts des Aufwands an elektrischer Energie ziemlich wenig ist.
Ungeachtet dessen betont Nvidia, die Geforce RTX 3090 Ti sei quasi die neue Titan und ein paar Prozent Geschwindigkeit mehr wären für Content Creator wichtig, wenn Zeit ein knappes Gut ist und beispielsweise ein paar mehr Iterationen pro Stunde durchgeführt werden können. In diesem Segment spielt überdies auch der Preis weniger eine Rolle, dennoch wirkt die Grafikkarte in Zeiten des Klimawandels leicht deplatziert.
Tatsächlich ist die Geforce RTX 3090 Ti aber - sofern die Informationen zu Ada (Lovelace)(öffnet im neuen Fenster) denn stimmen - eine Vorbotin auf die nächste Generation: Dort soll die Leistungsaufnahme bis zu 600 Watt betragen, für welche der 12VHPWR-Stecker bereits ausgelegt ist. Bleibt nur zu hoffen, dass die Effizienz der kommenden Pixelbeschleuniger besser ausfällt.
Was bleibt, ist eine in vielerlei Hinsicht brachiale Grafikkarte, die ihre Kundschaft finden wird - alle anderen warten ein paar Monate auf die neuen Modelle.



