Geforce RTX 4080 im Test: Kann Spuren von künstlicher Intelligenz enthalten

Der Hardware-Herbst geht weiter. Nach Nvidias Vorlage mit der in jeder Hinsicht gewaltigen Geforce RTX 4090 ( Test ) und den neuen Prozessoren von Intel und AMD gibt es nun die zweite Karte aus dem Hause Nvidia. Der 378,6-mm²-Chip basiert auf der Ada-Architektur, benannt nach der britischen Mathematikerin Ada Lovelace(öffnet im neuen Fenster) . Er wird ebenfalls bei TSMC im 4-nm-Verfahren gefertigt, kommt aber im Vergleich zum AD102 mit fast schon genügsamen 320 Watt aus. Die 45,9 Milliarden Transistoren sollen der Vorgängergeneration in Form der Geforce RTX 3080 Ti in jeder Form überlegen sein.
Mit dem AD-103-300 bekommt die Geforce RTX 4080 einen eigenen Chip. Dieser ist mit 7 GPCs (Graphics Processing Cluster) ausgestattet. Jeder GPC beinhaltet sechs TPCs (Texture Processing Cluster), die wiederum aus zwei SMs (Shader Module) bestehen. In jedem SM stecken vier CUDA-Cores, vier Tensor-Cores der vierten Generation sowie ein Raytracing-Core der dritten Generation. Jedes SM ist mit 128 KByte L1-Cache ausgestattet.
Insgesamt kommt die AD-103-300-GPU damit auf 40 TPCs, 80 CMs, knapp 10 MByte L1-Cache, 20 MByte Register für die CUs/Tensor Cores und acht 32-Bit-Speichercontroller, die zusammen ein 256-Bit-Speicherinterface ergeben. Daran angebunden sind 16 GByte GDDR6X mit 22,4 GBit/s. Die theoretische Speicherbandbreite beträgt damit 716,8 GByte/s, die tatsächliche Bandbreite hängt aber von anderen Faktoren wie eingesetzter Komprimierung ab. Die sieben GPCs teilen sich einen 64-MByte-L2-Cache.
Trotz kleinerem Chip ist die GPU deutlich schneller
Während einige technische Daten auf den ersten Blick wie ein Rückschritt erscheinen mögen, etwa weil AD-103-300 im Vergleich zu GA-102-225 (Ampere) der Geforce RTX 3080 Ti weniger aktive SMs und weniger Speicherbandbreite aufweist, ergibt sich beim genauen Hinsehen das gegenteilige Bild. 17,6 Milliarden zusätzlich Transistoren finden auf einem fast halb so großen Chip Platz. Die gestiegene Transistordichte äußert sich in annähernd einem Gigahertz mehr Taktrate bei 30 Watt weniger Leistungsaufnahme.










Auch bei der Rechenleistung muss sich die Karte nicht verstecken: 48,7 FP32 Tflops (non-Tensor) gegenüber 34,1 Tflops, neu hinzugekommene Fähigkeiten zur FP8-Berechnung für gesteigerte Leistung bei Machine Learning und fast doppelte Rohleistung beim Raytracing mit 112,7 gegenüber 66,6 RT-Tflops. Wie die größere Geforce RTX 4090 bekommt auch die RTX 4080 zwei NVEN-Encoder - statt bisher einem einzigen. Sie beherrschen nun auch AV1, doch dazu später mehr.
Neue RT-Cores bringen große Mehrleistung
Die Raytracing-Cores der dritten Generation sind laut Nvidia doppelt so schnell bei der Ray-Triangle-Intersection-Berechnung, was Entwicklern ermöglicht, entsprechend mehr solcher Berechnungen pro Frame durchzuführen. Die neu entwickelte Opacity Micromap Engine kann direkt Alpha-Tests auf geometrische Objekte durchführen und dadurch die Anzahl der Shader-basierten Alpha-Traversal-Berechnungen reduzieren, was zu einer Verdoppelung der Geschwindigkeit an dieser Stelle führen soll. Entwickler können so unregelmäßige Objekte wie Zäune, Farne (Gras) oder durchsichtige Gegenstände besser nutzen.
Die ebenfalls neue Micro-Mesh-Engine erlaubt es, Dreiecke aus Mini-Gittermodellen zu generieren, was eine effizientere Methode darstellen soll, um die BVH-Modelle (Bounding Volume Hierarchy) zu generieren. Diese Datenstrukturen sind der mathematische Grundbaustein, um die Überschneidungspunkte der Lichtstrahlen (Rays) mit Objekten zu berechnen. Die Micro-Mesh-Engine soll es erlauben, diese Modelle nun 10x schneller bei gleichzeitig 20x verringertem Speicherbedarf zu erzeugen.
Durch die Verbesserungen soll es Entwicklern aber nicht einfach nur ermöglicht werden, ein Vielfaches an Geschwindigkeit zu erreichen. Durch mehr Rays pro Frame und höhere Genauigkeit kann die Qualität der Bilder weiter gesteigert werden. Da Lichtstrahlen beim Auftreffen auf Objekte in zufällige Richtungen weiter schießen und die Berechnungen dazu oft chaotisch und durcheinander erfolgen, kann per Shader Execution Reordering (SER) die Arbeit der Shader neu geordnet werden, um Leerlauf zu vermeiden.
Der neue Streaming-Codec
Mit AV1 ist ein neuer Codec am Markt, der sich aller Voraussicht nach in den nächsten Jahren in vielen Bereichen durchsetzen wird. Die Gründe dafür sind vielfältig: Den Anfang macht wie üblich das Geld, denn der direkte Konkurrent ist HVEC, der von MPEG LA, HEVC Advance und Velos Media vorangetrieben wird. Anteile an diesen Unternehmen haben Firmen wie Ericsson, Panasonic, Sharp und Sony. Für den Codec fallen teils unterschiedliche Lizenzgebühren an, die etwa eine Videoplattform beim Vertrieb von Inhalten mit diesem Codec entrichten müsste.










Entsprechend haben sich viele große Unternehmen, darunter Amazon, Apple, Intel, Google, Microsoft, Mozilla und Netflix, zusammengetan, um in der Alliance for Open Media(öffnet im neuen Fenster) einen eigenen und vor allem kostenfreien Code zu entwickeln. Interessanterweise ist Apple dieses Jahr das einzige Unternehmen, das den Codec noch nicht in seinen aktuellen Chips integriert hat. Für die nächste Generation (M3, A17) wird dies aber ebenfalls erwartet.
Auch technisch ist AV1 offenbar deutlich überlegen. Laut einer Bildanalyse der Lomonossow-Universität(öffnet im neuen Fenster) Moskau ist der Codec 28 Prozent effizienter als HEVC und 55 Prozent effizienter als X264. Mit AV1 kann also bei gleicher Bandbreite eine höhere Bildqualität erreicht oder bei gleicher Qualität die Bitrate entsprechend reduziert werden.
AV1 auch für Discord und Twitch
Große Streaminganbieter wie Netflix und Youtube können durch die eingesparte Bandbreite ihre Kosten erheblich reduzieren und womöglich gleichzeitig in höchsten Qualitätseinstellungen neue Features wie HDR und 8K-Video ermöglichen, ohne dass dafür immense Datenraten notwendig werden. Auch Hobby-Creator und Gamer profitieren davon, weshalb die leistungsfähigen Encoder wohl auch auf einer Gaming-GPU gelandet sind.
Twitch arbeitet an der Kompatibilität zu AV1, während die beliebte Streaming-Software OBS(öffnet im neuen Fenster) bereits in der aktuellen Beta-Version zu NVENC mit AV1 kompatibel ist. Auch Discord hat schon eine Beta-Version mit AV1 entwickelt. Da Twitch besonders für Nicht-Partner die maximale Datenrate auf 6.000 Kbit/s beschränkt und auch Partnern nur 8.000 Kbit/s erlaubt, ist die deutlich höhere Effizienz für Hobby-Streamer besonders interessant. Bisher war gerade in der Bewegung und an feinen Strukturen wie Vegetation, Zäunen und Kleidung direkt sichtbar, wer professionell streamt.
Während Profi-Streamer die hohe Qualität durch massiven Hardwareeinsatz mit einem zweiten dedizierten Streaming-PC samt Capture-Card und sehr leistungsfähiger CPU erkauft haben, sieht beim Streaming per Grafikkarte je nach Spielumgebung das Bild manchmal ganz schön matschig aus. Mit AV1 ist die Bildqualität bereits bei 3.500 Kbit/s besser, als es vorher bei 6.000 Kbit/s per NVENC und X264 möglich war. Discord, Twitch und Youtube-Livestreams dürften so endlich vom Pixelbrei befreit werden. Auch Intel und AMD (RDNA3) haben in ihren aktuellen GPUs einen AV1-Encoder eingebaut.
DLSS Frame Generation
DLSS 3 ist nicht einfach eine Iteration von DLSS 2.2, das weiterhin unterstützt und durch Nvidia für neue Spiele verbessert wird. Die neue Version bringt vielmehr ein neues Feature: DLSS Frame Generation(öffnet im neuen Fenster) . Dabei wird aus zwei aufeinanderfolgenden Bildern sowie Informationen aus der Game-Engine selbst berechnet, welche Bildelemente sich in welche Richtungen bewegen und wie diese im nächsten Bild vermutlich aussehen werden.










Das neuronale DLSS-Frame-Generation-Network ist damit in der Lage, Geometrie und Effekte des nächsten Frames mit hoher Genauigkeit zu berechnen. Daraus wird in der GPU nun ein völlig neues Bild berechnet, ohne dass die Game Engine auf der CPU dazu weitere Arbeit leisten muss. Auch im GPU-Limit hilft dies, da neben den SMs so auch freie Kapazitäten der Tensor-Cores genutzt werden.
Nvidia betont fleißig, dass sich DLSS Frame Generation auch mit DLSS Super Resolution (DLSS 2) und Nvidia Reflex + Boost nutzen lässt, um so in Kombination eine Vervielfachung der Bildrate zu erreichen. Entsprechend eindrucksvoll sind die Balkendiagramme bei der Präsentation. Ein kurzer Test zeigt: Das Marketing hat im Wesentlichen korrekte Werte geliefert, wir können die Ergebnisse reproduzieren, wollen dies jedoch nicht.
DLSS Super Resolution muss nicht sein
Wir sehen das, zumindest auf einer High-End GPU wie einer Geforce RTX 4080, eigentlich etwas anders, denn selbst in 4K-Auflösung sind mit den beiden verfügbaren Ada-Grafikkarten gute Bildraten erreichbar. Da DLSS Super Resolution in jedem Fall die Bildqualität beeinflusst, lassen wir es lieber weg. Unser Test zeigt: Häufig reicht DLSS Frame Generation allein bereits für sehr gute Bildraten in 4K, und mit DLSS Super Resolution im Quality Modus kann bei Bedarf nachgeholfen werden, ohne die Bildqualität merklich zu reduzieren. Würden wir hier direkt zum Performance-Modus greifen, so hätten wir unter Umständen sichtbar schlechtere Bildqualität.










Nvidia Reflex zuzuschalten, halten wir ohnehin meistens für eine gute Idee. Für möglichst geringe Latenz sollte der Monitor mit der höchsten Wiederholrate betrieben werden, die Maus mit der höchstmöglichen Pollingrate, und wenn es der Monitor unterstützt, sollte G-Sync oder G-Sync-Compatible zugeschaltet werden. Bei der Konkurrenz von AMD und Intel sollten äquivalente-Features wie FSR und Radeon Boost ebenfalls genutzt werden.
Weiterhin kann der Windows-Game-Mode und in den Grafikeinstellungen "Hardwarebeschleunigte GPU-Planung" aktiviert werden. Im BIOS sollte rBAR/SAM aktiviert sein. Für kompetitive Spiele oder bei 60-Hz-Monitoren sollte V-Sync deaktiviert werden, um die letzten paar Millisekunden herauszuholen. Außerhalb schneller Shooter ergibt variable Bildrate in Kombination mit V-Sync die gefühlt flüssigsten Animationen und ist entsprechend angenehmer.
Benchmarks und Leistungsaufnahme
Wir testen wieder die Nvidia Founder's Edition, die direkt von Nvidia verkauft wird und etwas überraschend die gleichen Abmessungen wie die Geforce RTX 4090 aufweist. Glücklicherweise gehören die FE-Karten zu den kleineren Ablegern der Ada-Karten, so dass die Karte vermutlich in den meisten Systemen Platz finden wird. Leistungsmäßig vergleicht Nvidia die Geforce RTX 4080 mit der Geforce RTX 3080 Ti, wobei die Performance bis zu zweimal so hoch sein soll.
Getestet wird auf einem ASUS Maximus Z790-Hero mit einem Intel Core i9-13900K und 32GB DDR5-6800-CL34 Arbeitsspeicher von Gskill. Als CPU-Kühler kommt die ASUS Ryujin 360 All-In-One-Wasserkühlung mit drei Noctua NF-F12-Lüftern zum Einsatz. Das Netzteil ist ein Seasonic PX-1000 samt ATX 3.0 Kabel von Seasonic, das bisher laut Hersteller bei keinem Kunden Probleme durch Überhitzung gemacht hat. Die Daten liegen auf einer Crucial P3 SSD mit 1 TByte Kapazität.
Wir testen mit Windows 11 Version 22H2, rBAR aktiv, Game-Mode aktiv, Energiesparmodus ausgeglichen und den von Asus gesetzten Werten im BIOS. Das heißt, dass die CPU sich unter Last mehr als die von Intel spezifizierten 253 Watt genehmigen kann, was im Spielebetrieb jedoch praktisch nie vorkommt. Meistens liegt die CPU dabei sogar unter 100 Watt.
Die RTX 4080 im Vergleich
Als Vergleichsmodelle haben wir sowohl die Ampere-Generation mit der RTX 3080 Ti als auch die RTX 2080 Ti jeweils in der Founder's Edition. Wer aufgrund der Marktsituation der letzten Jahre nicht upgraden konnte oder wollte, bekommt so auch den High-End-Vergleich aus der vorletzten Generation. Außerdem darf natürlich AMD mit der Radeon RX6900 nicht fehlen. Wo möglich, testen wir sowohl mit aktivierter DLSS Frame Generation als auch ohne; zudem aufgrund der weiten Verbreitung auch weiterhin in 4K und WQHD.
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)




-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
-chart.png)
Microsoft Flight Simulator braucht besonders mit hohen Terrain-Details eine starke CPU und idealerweise auch schnellen Speicher, um gute Bildraten zu ermöglichen. Dennoch ist es mit maximalen Einstellungen aktuell mit keinem System möglich, dauerhaft 60 Bilder pro Sekunde zu erreichen. Mehr oder weniger starke Ruckler begleiten das Spiel, was besonders in Bodennähe auffällt. In großer Höhe und insbesondere in der Cockpitansicht beim Instrumentenflug mag dies weniger problematisch sein, bei Erkundungsflügen in der Außenansicht dafür umso mehr.
Schalten wir Frame Generation ein, steigt die Bildrate deutlich an. Je nach Situation beobachten wir durchaus, wie von Nvidia versprochen, die doppelte Bildrate gegenüber ausgeschaltetem DLSS 3. Die Kombination mit DLSS Super Resolution ist zwar möglich, aber selbst in 4K nicht notwendig. Die Bildrate ist fast immer mindestens dreistellig, was für ein Simulationsspiel ausreicht und die Anschaffung eines 4K-144-Hz-Monitors sinnvoll erscheinen lässt.
Sichtbare Ruckler durch die Terrain-Berechnung im CPU-Limit gibt es leider noch immer, jedoch deutlich weniger nervig als zuvor. Insgesamt wirkt das Spiel nun erstmals auch in Bodennähe flüssig und der Flug über Großstädte und zwischen Bergen und dichten Wäldern hindurch ist jetzt viel unterhaltsamer. Negative Effekte durch DLSS Frame Generation fallen uns bis auf ein einziges Detail nicht auf.
Wenn wir in Bodennähe fliegen, gibt es einen Effekt ähnlich dem Schimmern aufsteigender heißer Luft entlang des Vorflügels. Dafür müssen wir aber wirklich genau hin- und fast von oben auf das Flugzeug schauen. Störend ist der Effekt auch dann nicht wirklich, nur durch das Wissen um eingeschaltete Frame Generation sind wir überhaupt darauf gestoßen, sonst hätten wir es eher für einen aerodynamischen Effekt gehalten.
Geforce RTX 4080 - Verfügbarkeit und Fazit
Nvidia verkauft die RTX 4080 Founder's Edition(öffnet im neuen Fenster) ab dem 16. November 2022 für 1.470 Euro im eigenen Shop. Partnerkarten zum empfohlenen Verkaufspreis soll es laut Hersteller ebenfalls geben, wobei die höherpreisigen Modelle der jeweiligen Boardpartner erfahrungsgemäß in höheren Stückzahlen verfügbar sind. Ein Schelm, wer Böses denkt. Wie es allgemein um die Verfügbarkeit steht, werden erst die nächsten Tage zeigen. Nach anfangs guter Lieferbarkeit inklusive pünktlichem Nachschub steht es um die RTX 4090 aktuell nicht gut.
Fazit
Die Leistung der Nvidia Geforce RTX 4080 ist sehr gut. Zum (realen) Verkaufspreis der Vorgängerkarte gibt es mehr Performance bei meistens geringerer Leistungsaufnahme. Dazu ist zumindest die von uns getestete Founder's Edition dank des etwas überdimensionierten Kühlers praktisch immer sehr leise. Von nervigem Spulenfiepen ist unser Modell ebenfalls verschont geblieben.
DLSS Frame Generation lässt sich in den bereits unterstützten Titeln einfach in den Grafikeinstellungen aktivieren. Nachteile gibt es kaum, fast immer ist es schlicht deutliche Mehrleistung, insbesondere im CPU-Limit vom MSFS. DLSS Super Resolution kann bei Bedarf, etwa in Cyberpunk, für Monitore mit 144 Hz oder mehr hinzugezogen werden. Hier gleich zum Performance Modus zu greifen, überlassen wir aber weiterhin den Marketing-Abteilungen der Hersteller.










Die meisten Titel gefallen uns gut, sobald sie mit mehr als 100 fps laufen, gerne auch mit den maximalen 120 Hz unseres Acer XV273K mit G-Sync Compatible sowie V-Sync. Neben butterweichen Animationen können wir knapp drei Jahre nach der Anschaffung des Geräts auch endlich überall in voller Auflösung mit maximalen Details spielen.



