Zum Hauptinhalt Zur Navigation

Nvidia Geforce RTX 5080 im Test: Blackwell für den Mainstream

Auf dem Papier bietet die Nvidia Geforce RTX 5080 halb so viel Leistung wie die RTX 5090. Hohe Taktfrequenz und schneller Speicher helfen jedoch.
/ Martin Böckmann
47 Kommentare News folgen (öffnet im neuen Fenster)
Die Nvidia Geforce RTX 5080 mit Dual-Flow-Through-Kühler (Bild: Nvidia)
Die Nvidia Geforce RTX 5080 mit Dual-Flow-Through-Kühler Bild: Nvidia

Die zweite Blackwell-Grafikkarte für Heimanwender ist da. Mit grob der Hälfe an Recheneinheiten, Speicher und Speicherbandbreite besteht eine große Lücke zur Geforce RTX 5090. Der hervorragende Kühler sowie hohe Taktfrequenzen sorgen dafür, dass die Grafikkarte trotzdem eine gute Leistung bietet. Wer bereits eine RTX-4000-Grafikkarte besitzt und auf ein Upgrade hofft, wird allerdings enttäuscht.

Erst beim Einsatz von DLSS 4 mit Multi-Frame-Generation (MFG) zieht die RTX 5080 allen älteren Grafikkarten klar davon und schlägt auch die Geforce RTX 4090 mühelos. Beim direkten Leistungsvergleich mit gleicher Render-Technik geben die technischen Spezifikationen einen Einblick in die zu erwartende Performance.

Die GPU der RTX 5080 trägt die Bezeichnung Nvidia GB203-400-A1; sie besteht aus 45,6 Milliarden Transistoren, verteilt auf eine Fläche von 378 Quadratmillimetern. Zum Vergleich: Der GB202-400-A1 der RTX 5090 kommt auf 92,2 Milliarden Transistoren und 750 Quadratmillimeter.

Viel Technik, wenig Platz

Die GB203-GPU hat 84 Stream-Multiprozessoren (SMs) und 64 MByte L2-Cache und wird auf der RTX 5080 im Vollausbau verbaut. Mit dem Mainboard verbunden wird die Karte über PCI-Express 5.0 x16, Strom wird per 12V-2x6 aufgenommen, einer verbesserten Version des problembehafteten 12VHPWR-Steckers. Nvidia legt einen Adapter auf drei 8-Pin-Stromanschlüsse bei, die TGP beträgt 360 Watt.

Blackwell und Ada im Vergleich
Serie Geforce RTX 5090 Geforce RTX 4090 Geforce RTX 5080 Geforce RTX 4080 Geforce RTX 5070 Ti Geforce RTX 4070 Ti Geforce RTX 5070 Geforce RTX 4070
Architektur Nvidia Blackwell Nvidia Ada Nvidia Blackwell Nvidia Ada Nvidia Blackwell Nvidia Ada Nvidia Blackwell Nvidia Ada
GPU GB202-400-A1 AD102-300-A1 GB203-400 AD103-300-A1 GB203-300 AD104-400 GB205-300 AD104-250
Shader-Einheiten 21.760 16.384 10.752 9.728 8.960 7.680 6.144 5.888
SMs 170 128 84 76 70 60 50 46
Grafikspeicher 32 GByte GDDR7 @ 28 GBit/s 24 GByte GDDR6X @ 21 GBit/s 16 GByte GDDR7 @ 30 GBit/s 16 GByte GDDR6X @ 21 GBit/s 16 GByte GDDR7 @ 28 GBit/s 12 GByte GDDR6X @ 21 GBit/s 12 GByte GDDR7 @ 28 GBit/s 12 GByte GDDR6X @ 21 GBit/s
Speicherinterface 512 Bit 384 Bit 256 Bit 256 Bit 256 Bit 256 Bit 192 Bit 192 Bit
Speicherdurchsatzrate 1.792 GByte/s 1.008 GByte/s 960 GByte/s 717 GByte/s 896 GByte/s 504 GByte/s 672 GByte/s 504 GByte/s
Leistungsaufnahme (Watt) 575 450 360 320 300 285 250 200
Preis zu Release 2.330 Euro 1.950 Euro 1.170 Euro 1.470 Euro 880 Euro 900 Euro 650 Euro 660 Euro

Der GDDR7-Grafikspeicher hat eine Kapazität von 16 GByte, läuft mit 30 Gigatransactions pro Sekunde (Gt/s) und stammt von Micron. Im Vergleich zum riesigen 512-Bit-Speicherinterface der RTX 5090 beträgt die Busbreite 256 Bit, die Transferrate liegt damit bei 960 GByte/s – kaum langsamer als die 1.008 GByte/s der Geforce RTX 4090 mit 384-Bit-Speicherinterface.

Ein Highlight der Founders Edition ist erneut die winzige Platine, auf der GPU, Speicher und Spannungsversorgung untergebracht sind. Die beidseitig dicht bestückte Platine ist in der Mitte der Grafikkarte platziert, so dass der Kühler auf beiden Seiten nicht durch eine Platine blockiert wird. Nvidia setzt den gleichen Kühler für RTX 5080 und RTX 5090 ein.

Neue Anschlüsse für Next-Gen-Displays

Bildschirme können per Displayport 2.1b mit bis zu 80 GBit/s und Unterstützung für UHBR 20 angeschlossen werden. Die maximale Auflösung pro Kabel beträgt damit 7.680 x 4.320 Pixel (8K) bei 165 Hertz, mit 4K-Bildschirmen sind per DSC (Display Stream Compression) bis zu 480 Hz möglich. Für die höchste Bitrate wird ein DP80LL-zertifiziertes Kabel vorausgesetzt. HDMI 2.1b ist ebenfalls vorhanden.

Auch die Geforce RTX 5080 ist mit DLSS 4 und MFG in der Lage, 4K-Bildschirme mit hoher Bildwiederholfrequenz adäquat mit Bildern zu versorgen, was bisher selbst mit Top-Grafikkarten wie der AMD Radeon RX 7900 XTX und Nvidia Geforce RTX 4090 in dieser Form nicht möglich war. Blackwell ist klar auf die Nutzung von KI-Funktionen zur Beschleunigung ausgelegt, auch wenn klassisches Rendering weiterhin ein Teil der GPU bleibt.

Die Blackwell-Architektur im Detail

Die GB203-GPU ist in acht Graphics-Processing-Cluster aufgeteilt, die jeweils eine dedizierte Raster-Engine, zwei Raster-Partitionen (ROPs) und vier Textur-Cluster (TPCs) enthalten. In jedem TPC befindet sich eine Polymorph-Engine und zwei SMs.

Die SMs hat Nvidia für Blackwell überarbeitet. Die Anzahl der Textureinheiten pro SM wächst von 512 (Ada) auf 640. Weiterhin gibt es jeweils 128 Cuda-Kerne, eine Raytracing-Einheit, vier Tensor-Cores der fünften Generation, vier Textureinheiten, ein 256 KByte Register-File (16k, 32-Bit) und einen 128 KByte großen Shared-L1-Cache, der einzelnen Einheiten flexibel zugeteilt werden kann.

Gegenüber Ada hat Nvidia die INT32-Operationen pro Taktzyklus verdoppelt, indem der dedizierte FP32-Block gestrichen wurde und stattdessen der gemeinsame FP32/INT32-Block größer wird. Pro Takt kann damit allerdings nur ein Datentyp verarbeitet werden, gemischte Workloads müssen auf mehrere SMs verteilt oder nacheinander abgearbeitet werden.

Stromsparen bei der Arbeit

Der GDDR7-Speicher nutzt PAM3-Signale (Puls Amplitude Modulation) statt des anfälligeren PAM4, das beim GDDR6X der Geforce-RTX-3000- und -4000-Serie verwendet wurde. Statt zwei Bits pro Takt werden nur 1,5 Bit übertragen. Ein neues Pin-Encoding-Verfahren verdoppelt allerdings die Anzahl der nutzbaren Kanäle und verbessert das Signal-zu-Rausch-Verhältnis (SNR).

Nvidia bringt einige Stromspartechnologien unter dem Namen Max-Q in Blackwell ein. Bisher wurde der Begriff vor allem als Stromsparfunktion für Notebook-Chips verwendet. Konkret sollen die Chips in den verschiedenen Bereichen sowohl Clock-Gating, Power-Gating als auch Rail-Gating beherrschen.

Damit meint Nvidia, dass die Taktrate einzelner Bereiche nun bis zu 1.000-mal schneller angepasst werden kann, um sie immer am aktuellen Bedarf auszurichten. Bisher konnte der Takt nur zwischen Einzelbildern angepasst werden, Blackwell soll dies auch während laufender Berechnungen beherrschen. Nicht benötigte Blöcke und Partitionen können ganz abgeschaltet werden.

Neue Datentypen für KI und DLSS 4

Die Tensor-Cores der Blackwell-Generation unterstützen die aus älteren Generationen bekannten Datentypen FP16, BF16, TF32, INT8 und INT4 sowie FP8. Neu sind FP6 und FP4, mit denen Nvidia den Speicherbedarf der Modelle senken und gleichzeitig den Durchsatz bei der Berechnung verbessern will. Die Qualität soll mittels Anpassung durch Nvidias Tensor-RT-Model-Optimizer fast gleich bleiben.

Als Beispiel nennt Nvidia das Modell Flux.dev von Black Forest Labs, das mit FP16 auf einen Speicherbedarf von 23 GByte kommt und ein Bild mit 30 Schritten auf einer Geforce RTX 4090 in 15 Sekunden generiert. Auf der Geforce RTX 5090 soll das gleiche Ergebnis mit FP4 in nur fünf Sekunden erreicht werden, der Speicherbedarf beträgt dann nur noch 10 GByte.

Auch für DLSS-4-Multi-Frame-Generation werden die neuen Datentypen genutzt, um in Kombination mit dem neuen Tensor-Modell für DLSS gleich mehrere Bilder pro Durchlauf zu erzeugen. Nvidia sieht hier die Zukunft des Renderings, denn die meisten Pixel in kompatiblen Spielen werden bald KI-generiert sein.

Übrigens ist DLSS 4 nicht nur für Blackwell verfügbar, sondern auch auf älteren RTX-Karten ab der Turing-Generation lauffähig. Die Performance soll durch das neue Tensor-Modell um 20 Prozent steigen, gleichzeitig geht der Speicherbedarf um 30 Prozent zurück. Auch wer keine Blackwell-Karte kauft, hat also etwas von DLSS 4.

Der Blick in die Zukunft – DLSS 4 liefert ab

Wir haben die Geforce RTX 5080 mit den Vorgängergenerationen von Nvidia und AMD verglichen und dabei eine Mischung aus Spielen mit DLSS-MFG, ohne DLSS sowie synthetische Benchmarks verwendet. Mit PCI-Express 5.0 x16 bietet unser Testsystem optimale Bedingungen, zwingend erforderlich ist die fünfte PCI-Express-Generation allerdings nicht.

Getestet haben wir auf einem PC mit AMD-Ryzen-7-9800X3D-Prozessor, einer Custom-Wasserkühlung von Aqua-Computer und 32 GByte DDR5-6000-CL28-Speicher von Gskill. Als Mainboard nutzen wir das Asus ROG Crosshair X670E-Gene, das neben PCI-Express 5.0 x16 für unsere Blackwell-Grafikkarte auch einen M.2-Slot mit PCI-Express 5.0 für unsere Crucial T705 hat. Als Betriebssystem nutzen wir Windows 11 24H2.

Wir konnten zwei Spiele testen, in denen DLSS 4 bereits inklusive der neuen Multi-Frame-Generation funktioniert: Cyberpunk 2077 und Hogwarts Legacy. Dazu haben wir weitere Spiele getestet, die zum Teil per Nvidia-App bereits mit DLSS 4 gespielt werden können, selbst aber über keine Option dazu verfügen. Auch die Rasterleistung ohne DLSS haben wir per 3D-Mark Time Spy nachgeprüft.

Mehr Performance als erwartet

Mit DLSS 4 und MFG zeigt die Geforce RTX 5080 das Potenzial der Softwareentwicklungen, an denen Nvidia in den letzten Jahren gearbeitet hat. Für grafisch anspruchsvolle Titel dürfte Frame Generation zukünftig zum Standard werden, insbesondere da die hohe Qualität des DLSS-4-Transformer-Modells die bisherigen Vorteile von nativem Rendering zunehmend verschwinden lässt.

Verglichen mit dem bisherigen DLSS 3.7 kann DLSS 4 die Bildrate erheblich steigern. Wir erreichen mit maximalen Bildeinstellungen inklusive Pathtracing auf der höchsten DLSS-Qualitätsstufe mit aktiver Multi-Frame-Generation eine Bildrate von 121 Bildern pro Sekunde in Cyberpunk 2077.

In Hogwarts Legacy erreichen wir mit DLSS 4 bei maximalen Detaileinstellungen 299 fps. Selbst für die schnellsten verfügbaren Bildschirme zeigt sich, dass bereits Nvidias zweitschnellste Grafikkarte oft ausreicht, um die maximale Bildrate auch nutzen zu können.

Kein nennenswerter Generationssprung

Im Vergleich zur Nvidia Geforce RTX 4080 Super ist die GPU der RTX 5080 kaum größer, nur vier Streaming-Multiprozessoren (SM) sind hinzugekommen. Die TDP steigt von 320 auf 360 Watt, der Speicher wird laut Nvidia etwas sparsamer. Damit bleibt mehr Strom für die GPU selbst übrig, die durch den großzügig dimensionierten Kühler thermisch keine größeren Einschränkungen hat.

Insgesamt sorgt das für rund zehn Prozent höhere Performance gegenüber einer Geforce RTX 4080 Super, die in vielen Fällen mit der ursprünglichen RTX 4080 gleichauf ist und diese mit ihrem Erscheinen ersetzt hat. Ein direktes Upgrade von einer Geforce RTX 4080 zur RTX 5080 ist damit nicht sinnvoll.

Nur wenn DLSS 4 mit MFG auch wirklich ausgereizt wird, also etwa mit einem 4K-Monitor mit 240-Hz-Bildwiederholrate, bietet die Blackwell-Karte einen klaren Mehrwert gegenüber dem direkten Vorgänger. Für Besitzer von RTX20- (Turing) oder RTX30-Grafikkarten (Ampere) stellt die Geforce RTX 5080 allerdings ein solides Upgrade inklusive moderner Schnittstellen und Software-Features dar.

Die Sache mit der Bildqualität

An DLSS und Frame Generation gibt es zwei häufig genannte Kritikpunkte: die zumindest in früheren Versionen geringere Bildqualität im Vergleich zu nativer Darstellung und die höhere Latenz durch Frame Generation – insbesondere die technisch bedingte Limitierung, dass es Frame Generation nicht möglich ist, die Latenz durch eine höhere Bildrate zu senken, da hierfür keine Nutzereingaben verarbeitet werden.

In unserem Test haben wir uns die Darstellung mit DLSS 4 vor allem in dem Vorzeigetitel Cyberpunk 2077 mit vierfacher Multi-Frame-Generation (MFG) genau angesehen. Insgesamt sind wir von der Bildqualität mit dem neuen Tensor-Modell überzeugt, die Darstellung ist in Kombination mit Ray Reconstruction mitunter besser, als sie nativ sein könnte.

Fehler gibt es allerdings, und die wird Nvidia in kommenden Versionen auch weiterhin beheben müssen, um auch Fans von nativer Darstellung von DLSS zu überzeugen. In unserem Fall ist die Darstellung von Text in Dialogfenstern sowie Distanzmarkern an Händlern fehlerhaft.

Flimmern und Ruckler bleiben vorerst

Uns stört das nur, wenn wir die Kamera schnell am Text vorbeibewegen müssen. Erkennbar ist es allerdings sofort, zumindest für sensible Beobachter. Ob das als störend empfunden wird, liegt im Auge des Betrachters. Es ist außerdem möglich, dass ein Patch für Abhilfe sorgt. Bewerten können wir nur den Ist-Zustand.

Wir können die Textdarstellung klar auf MFG zurückführen: Sobald wir auf dreifache oder gar zweifache Frame-Generation umschalten, werden die Fehler weniger und verschwinden ohne Frame Generation vollständig.

Ray Reconstruction als Retter?

In Hogwarts Legacy ist ebenfalls vierfache Frame-Generation verfügbar, Symbole und Text scheinen kein Problem zu sein. Stattdessen fällt uns an manchen Stellen ein eher starkes Flimmern an der Vegetation auf, das überwiegend durch Upscaling entsteht. Frame Generation verstärkt dies lediglich.

Leider ist mit unserem Presse-Treiber in Hogwarts Legacy kein Ray Reconstruction aktivierbar, denn die Technik ist gerade für feine Strukturen wie Vegetation, Zäune und Stoffe bestens geeignet, um solche Probleme zu beheben und sogar mehr Details darzustellen, als nativ vorhanden sind.

Ob das im Fall von Hogwarts Legacy hilft, testen wir, sobald ein neuer Treiber verfügbar ist, mit dem sich das Feature nutzen lässt. Was bleibt, ist ein positiver Gesamteindruck, der sich auch durch ein paar verbleibende Schwächen nicht trüben lässt.

Wir würden DLSS aktivieren

Wer eine Geforce RTX 4090 besitzt, oder künftig eine Geforce RTX 5090 erwirbt, hat in vielen Spielen derzeit die Wahl, ob DLSS oder native Darstellung bevorzugt wird. Auch in Cyberpunk 2077 lässt sich mit nur wenigen Kompromissen mühelos eine dreistellige Bildrate ohne KI-Upscaling und Frame Generation erreichen.

Gerade in diesem Titel stellen wir jedoch nach dem direkten Vergleich fest, dass die Bildrate mit DLSS 4 so gleichmäßig und angenehm ist, dass wir in jedem Fall zur höheren Bildrate mit DLSS greifen würden. Wer Unterschiede in der Darstellung sucht, muss sich mittlerweile große Mühe geben.

Mit Reflex 2.0 führt Nvidia zudem eine Technik ein, die auch das Problem der Latenz bei generierten Bildern angehen soll, sofern die Entwickler die Funktion in das Spiel einbauen. Dabei kommt sogenanntes Frame-Warping zur Anwendung. Damit können Bilder unmittelbar vor der Darstellung auf dem Bildschirm nachkorrigiert werden, um die letzten Nutzereingaben direkt anzuzeigen und die Latenz zu reduzieren.

Das K.o.-Argument: Es geht nicht anders

Dass Nvidia sich nicht allein in KI-Rendering verrennt, zeigen die Bemühungen der Konkurrenz. AMD ist mit FSR 3.1 auf einem guten Weg, viele Funktionen von DLSS auch mit AMD-Hardware zu ermöglichen. Auch hier wird KI eine zunehmend größere Rolle spielen. Intel bietet bereits allerhand KI-basierte Features für Arc-GPUs an.

Die Hersteller treibt nicht allein der KI-Hype um, der sicherlich eine Rolle spielt. Vielmehr ist das Entwicklungstempo bei Halbleitertechnologien zu langsam, um regelmäßige und größere Leistungssprünge zu ermöglichen. Und bei der Architektur geht es oft nur noch um Kleinigkeiten, die meiste Performance kommt fast immer von besserer Fertigung und mehr Transistoren.

Um Raytracing, eine sehr hohe Bildschirmauflösung und dabei eine ausreichende Bildrate zu liefern, reicht das bisherige Entwicklungstempo nicht aus. Wenn jedoch mit effizienteren Methoden aus wenigen Pixeln mit hoher Präzision ein Vielfaches dessen generiert werden kann, bietet dies eine Möglichkeit, die gewünschte Darstellungsqualität eher zu erreichen.

Ein guter Kühler wird zum sehr guten Kühler

Beim Kühler hat Nvidia das neue Dual-Blow-Through-Design erneut genutzt. Dabei befördern beide Lüfter die Luft durch den Kühler auf die andere Seite der Grafikkarte, was den effizientesten Weg darstellt. Damit das möglich ist, wurde die Platine der GPU stark verkleinert und mittig zwischen den Lüftern platziert.

Die Anschlüsse für die Monitore sowie der PCI-Express-Stecker befinden sich jeweils auf separaten PCBs (Platinen), die mit kleinen Kabeln mit dem GPU-PCB verbunden sind. Statt Wärmeleitpaste wird zwischen der GPU und dem Kühler eine Flüssigmetalllegierung mit Gallium-Anteil verwendet. Zum Schutz ist um den Chip herum eine dreifache Gummidichtung angebracht, die auch Oxidierung durch Sauerstoff vorbeugen soll.

Weitere Effizienzverbesserungen hat Nvidia durch die Vapor-Chamber des Kühlers erreicht, die besonders groß ausgelegt ist und die Heatpipes des Kühlers direkt integriert. Normalerweise sind sie nur äußerlich verlötet, bei der Vapor-Chamber der RTX 5080 kann das verdampfte Wasser direkt durch die Heatpipes strömen und fließt anschließend wieder zurück.

Schwächen bei der Leistungsaufnahme

Die Geforce RTX 5080 ist insgesamt deutlich sparsamer als die Geforce RTX 5090. Vergleichen wir sie aber mit älteren Grafikkarten in der gleichen Leistungsklasse, ist die Leistungsaufnahme erneut gestiegen. Das ist erneut in allen Bereichen der Fall, was Blackwell insgesamt zu einer ineffizienteren Architektur als Ada macht, gerade wenn der PC oft für längere Zeiträume ohne GPU-Last genutzt wird.

Ein Fehler, wie wir ihn bei der RTX 5090 noch vermutet haben, liegt offenbar nicht vor. Wir hoffen weiterhin auf Treiber- oder Firmware-Verbesserungen seitens Nvidia, insbesondere da die Stromsparfunktionen explizit von Nvidia in der Präsentation von Blackwell erwähnt wurden. Dass sie in einem Anstieg der Leistungsaufnahme resultieren sollen, können wir uns schwer vorstellen.

Der effizienteste Luftkühler überhaupt

Die Verbesserungen am Kühler haben bereits bei der RTX 5090 ihre Wirkung gezeigt, mit den 575 Watt hat der Kühler dennoch gut zu tun. Bei der RTX 5080 hat Nvidia den gleichen Kühler noch einmal benutzt, der mit nur 360 Watt erwartungsgemäß keine große Mühe hat. Die Grafikkarte erreicht eine maximale Temperatur von 67 Grad Celsius und ist dabei angenehm leise.

Riesige Aftermarket-Kühler der Boardpartner sind damit zumindest im Fall der RTX 5080 nicht erforderlich, können für Freunde von besonders leisen PCs aber sicher noch einmal ein paar Dezibel rausholen. Für eine eventuelle Geforce RTX 5080 Ti ist der Dual-Flow-Through-Kühler von Nvidia jedenfalls bereits jetzt bestens vorbereitet.

Keine Netzteilakrobatik erforderlich

Was die Netzteilempfehlungen angeht, sieht Nvidia mindestens 850 Watt vor. Dabei ist reichlich Sicherheitsmarge eingeplant, denn gerade mit sparsameren Prozessoren wie AMDs Ryzen-X3D-Serie oder Intel Arrow-Lake (Core Ultra 200K) dürfte das Gesamtsystem sowohl in Spielen als auch in Anwendungen die 500-Watt-Schwelle kaum überschreiten. Wir halten daher ein Netzteil mit einer Leistung von 750 Watt von einem namhaften Hersteller für ausreichend, eine Sicherheitsmarge von über 200 Watt reicht auch für etwaige Lastspitzen aus.

Nvidia Geforce RTX 5080 – Preise, Verfügbarkeit und Fazit

Wer eine Nvidia Geforce RTX 5080 kaufen möchte, muss dafür zum Start mindestens 1.170 Euro zahlen. Das ist der von Nvidia veröffentlichte offizielle Kaufpreis für eine Founders Edition. Bereits jetzt zeichnet sich ab, dass die meisten Partner vor allem deutlich teurere Karten in größeren Stückzahlen herstellen werden, so dass für eine RTX 5080 zum Herstellerpreis mit Wartezeit zu rechnen ist.

Die Verfügbarkeit soll selbst laut Nvidia-Kreisen in den ersten Wochen eine Herausforderung sein. Das bestätigen uns auch Händler auf Nachfrage, die zudem anmerken, dass vor allem höherpreisige Partnerkarten im Lager eingetroffen sind, während die MSRP-Modelle durch Abwesenheit glänzen.

Auch beim Vorgänger, der Nvidia Geforce RTX 4080, war die Versorgung in den ersten Wochen nicht ausreichend. In jedem Fall raten wir dazu, die hohen Preise von Scalpern nicht zu zahlen und lieber noch ein paar Wochen länger zu warten. Spätestens zum Release von GTA 6 dürfte auch die Geforce RTX 5080 zu dem von Nvidia empfohlenen Preis lieferbar sein.

Fazit

Die Zeit der großen Generations-Upgrades scheint vorüber zu sein. Eine Mehrleistung von rund zehn Prozent gegenüber dem direkten Vorgänger ist sicherlich kein Grund, direkt zu den Händlern zu rennen. Auch Nvidia sieht das so und positioniert die Grafikkarte vor allem als gute Investition für Besitzer älterer Generationen.

Hier hat die Geforce RTX 5080 dann sowohl mit KI-Rendering-Funktionen als auch ganz klassisch bei der Rasterleistung klar die Nase vorn und soll zumindest laut Nvidia nicht teurer sein, als es die Nvidia Geforce RTX 4080 zum Launch war. Die Realität dürfte aber einen leichten Preisanstieg beinhalten, zumindest wenn man nicht sehr früh eine Vorbestellung ergattern kann.

Die Konkurrenten Intel und AMD haben der Geforce RTX 5080 nichts entgegenzusetzen, und das dürfte auch mit den kommenden Modellen AMD Radeon RX 9060, 9070 und 9070 XT so bleiben. Die leistungsstärkste der drei Grafikkarten ist laut Hersteller eher als Pendant zur Nvidia Geforce RTX 4070 Ti positioniert und dürfte damit klar langsamer als die Geforce RTX 5080 sein.


Relevante Themen