Turing-Grafikkarte: Nvidia plant Geforce RTX 2060
In wenigen Wochen wird Nvidia die vergleichsweise günstige Geforce RTX 2060 für Desktop-Systeme veröffentlichen. Die Turing-Karte beschleunigt Raytracing, der Videospeicher könnte aber zum Problem werden.

Am 7. Januar 2019 wird Nvidia die Geforce RTX 2060 offiziell vorstellen, Tests der Grafikkarte erwarten wir für den Nachmittag dieses Tages. Eine Woche später ist das bisher am wenigsten teure Modell mit Turing-Architektur im Handel verfügbar, sowohl als Founder's Edition von Nvidia selbst als auch in Custom-Versionen seitens der Partner. Der Preis liegt bei 350 US-Dollar vor Steuern, was hierzulande wohl knapp 400 Euro entsprechen dürfte.
Die Geforce RTX 2060 folgt auf die Geforce RTX 2080/Ti (Test) und die Geforce RTX 2070 (Test), welche je nach Modell zwischen 500 Euro und 1.500 Euro kosten. Die neue Grafikkarte nutzt den von der Geforce RTX 2070 bekannten TU106-Chip, statt eines Vollausbaus mit 2.304 Shader-Kernen sind aber nur 1.920 Recheneinheiten aktiv. Dadurch reduziert sich auch die Anzahl der RT- und Tensor-Cores für Hardware-beschleunigtes Raytracing sowie Inferencing für DLSS-Kantenglättung. Bisher unterstützen nur Battlefield 5 und Final Fantasy 15 diese Render-Techniken.
Nvidia geht davon aus, dass die Geforce RTX 2060 sich zwischen einer Geforce GTX 1070 Ti und einer Geforce GTX 1070 einordnet und damit ähnlich flott ist wie eine Radeon RX Vega 56 (Test). Die Leistung passt somit zum Preis, wobei die Turing-Karte mit 6 GByte statt 8 GByte Videospeicher einen Nachteil hat: Moderne Spiele reduzieren die Texturqualität, wenn der lokale Speicher nicht ausreicht, was zu matschigen Pixeltapeten und teils zu einer stotternden Darstellung führt. Uns zumindest erscheinen 6 GByte Videospeicher angesichts der Performance der Geforce RTX 2060 für (zu) wenig.
Geforce RTX 2080 Ti | Geforce RTX 2080 | Geforce RTX 2070 | Geforce RTX 2060 | |
---|---|---|---|---|
Grafikchip | TU102-300A-A1 | TU104-400A-A1 | TU106-400A-A1 | TU106-200A-A1 |
Shader-ALUs | 4.352 | 2.944 | 2.304 | 1.920 |
Textur-Einheiten | 272 | 184 | 144 | 120 |
Raytracing-Cores | 68 | 46 | 36 | 30 |
Tensor-Cores v2 | 544 | 368 | 288 | 240 |
Basis/Boost-Takt | 1.350/1.635 MHz | 1.515/1.800 MHz | 1.410/1.710 MHz | 1.365/1.680 MHz |
Videospeicher | 11 GByte GDDR6 | 8 GByte GDDR6 | 8 GByte GDDR6 | 6 GByte GDDR6 |
Speicher-Interface | 352 Bit @ 7 GHz | 256 Bit @ 7 GHz | 256 Bit @ 7 GHz | 192 Bit @ 7 GHz |
Raster-Endstufen | 88 | 64 | 64 | 48 |
Board Power | 260 Watt | 225 Watt | 185 Watt | 160 Watt |
Stromstecker | 8P + 8P | 8P + 6P | 8P | 8P |
Für Raytracing in Battlefield 5 ist die Grafikkarte aber schnell genug: Sie soll in 1080p mit Ultra-Details und RT auf mittlerer Stufe rund 60 fps schaffen, in 1440p immerhin noch um die 50 fps. Das reicht für den Einzelspielermodus und ist auch im Multiplayer akzeptabel. In den kommenden Wochen erhält der Shooter per Patch zudem eine Unterstützung für Deep Learning Super Sampling, was die Geschwindigkeit in Full-HD auf etwa 90 fps steigern soll.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Das ist Kalkül. Die Karten sollen so etwas gar nicht schaffen, um den Absatz weiter...
Wieso denn Lüge? Die anderen Karten sind mit BF5 doch wohl ausgelastet genug. Wo sollen...
Das kannst du aber auch nur als Monopol machen. Bei einem richtigen Wettbewerb greift dir...
8GB sind ziemlich unwahrscheinlich, Nvidia wird kaum den Markt für die eigene RTX 2070...