Geforce Now im Test: Nvidia nutzt einzigartige CPU und GPU
Wer mit Nvidias Geforce Now spielt, bekommt laut Performance Overlay eine RTX 2060c oder RTX 2080c, tatsächlich aber werden eine Tesla RTX T10 als Grafikkarte und ein Intel CC150 als Prozessor verwendet. Die Performance ist auf die jeweiligen Spiele abgestimmt, vor allem mit Raytracing.

Seit einigen Tagen ist Nvidias Geforce Now für alle verfügbar, was wir zum Anlass genommen haben, uns den Spielestreamingdienst erneut genauer anzuschauen. Nvidia unterscheidet zwischen einer kostenlosen Version und einer für 5,49 Euro pro Monat. Die Spiele-Performance ist identisch, allerdings schaltet Nvidia nur bei der kostenpflichtigen Version die Raytracing-Unterstützung frei.
Nvidia spricht von 1080p60, also 1.920 x 1.080 Pixeln bei 60 Bildern pro Sekunde, alternativ ist 720p120 möglich. Laut Hersteller erhalten Spieler bei Geforce Now im besten Fall die Geschwindigkeit einer Geforce RTX 2080 - was wir bestätigen können. Es hängt allerdings vom Titel ab, welche Hardware tatsächlich eingesetzt wird. Bei weniger anspruchsvollen Spielen wie Doom oder Grim Dawn teilt Nvidia weniger Rechenleistung zu als bei Metro Exodus oder Quake 2 RTX mit Raytracing.
Generell laufen die Titel auf Nvidias Server in sogenannten Pods, das sind Nodes mit virtualisierten Beschleunigerkarten (VGX). Die Basisversion davon ist mit einer Tesla P40 und einem Xeon E5-2697 v4 ausgestattet, die neueren Rechenknoten hingegen verwenden eine Tesla RTX T10 und einen Intel CC150. Dabei erhält nicht jeder Nutzer den vollen Zugriff auf alle Ressourcen, sondern Nvidia verteilt die Last teilweise dynamisch je nach Spiel. Wer wissen will, worauf er gerade zockt, kann sich via Strg+Alt+F6 einblenden lassen, welche Performance-Klasse zum Einsatz kommt. Wir haben hierzu allerhand Spiele mehrmals gestartet, um möglichst viele Nodes und deren Konfiguration herauszufinden zu können.
Performance Overlay | Grafikkarte | Prozessor |
---|---|---|
Geforce GTX 1080c | Tesla P40 (24GB) | Xeon E5-2697 v4 (8T @ 2,3 GHz) |
Geforce RTX 2060c | Tesla RTX T10 (8GB) - 1/3 | Intel CC150 (8T @ 3,5 GHz) |
Geforce RTX 2080c (g6.full) | Tesla RTX T10 (16GB) - 2/3 | Intel CC150 (8T @ 3,5 GHz) |
Wird im Performance Overlay eine Geforce GTX 1080c (wie Custom) angezeigt, handelt es sich um besagte Tesla P40 mit vollen 24 GByte Videospeicher und den Xeon E5-2697 v4. Die Tesla P40 ist in der Praxis ein bisschen flotter als eine echte Geforce GTX 1080, der Xeon E5-2697 v4 mit alter Broadwell-Architektur und 2,3 GHz bremst hingegen teils ein bisschen, zumal Nvidia nur acht logische Kerne von 18C/36T freischaltet. Für 1080p60 genügt die Leistung unseren Benchmarks zufolge auch in CPU-lastigen Titel wie Assassin's Creed Origins.
Alternativ startet Nvidia weniger anspruchsvolle Spiele auf einer Geforce RTX 2060c, welche von der Performance her gut mit der Geforce GTX 1080c vergleichbar ist. Im Server-Pod wird dann eine Tesla RTX T10 mit 8 GByte Videospeicher verwendet, hinzu kommt ein Intel CC150. Hierbei handelt es sich um einen 8C/16T-Prozessor mit 3,5 GHz und aktueller Coffee-Lake-Technik, wobei Nvidia davon acht logische Kerne pro User vergibt (offenbar 4C/8T). Wer Borderlands 3 oder Titel mit Raytracing spielt, erhält eine Geforce RTX 2080c. Konkret rechnet eine Tesla RTX T10 mit 16 GByte und ebenfalls der Intel CC150 mit acht logischen Kernen, die Performance entspricht fast einer echten Geforce RTX 2080.
Die Tesla RTX T10 basiert auf einem TU102-Chip mit unbekanntem Takt, dieser hat höchstwahrscheinlich 24 GByte Videospeicher zu. Im Falle der Geforce RTX 2080c nutzt Nvidia also 2/3 des Speichers, sprich 16 GByte, und bei der Geforce RTX 2060c dann 1/3 - also 8 GByte. Grundlegend ist auch geplant, eine Tesla RTX T10 für Titel wie Civilization 5 auf vier Spieler aufzuteilen, diese Option verwendet Nvidia aber bisher noch nicht.
Von der Performance her liefert Nvidia laut unseren Tests stabil 1080p60, auch mit Raytracing in Metro Exodus oder Quake 2 RTX. Die Bildqualität hängt davon ab, wie schnell die Internetleitung und wie stark das Netzwerk gerade fragmentiert ist. Im Büro am Vormittag erreichten wir mit einer 200-MBit/s-Leistung exzellente Resultate, am frühen Abend daheim bekamen wir trotz gleicher Geschwindigkeit hingegen recht viel Matsch zu Gesicht - erst nach 21 Uhr näherte sich die Bildqualität der im Büro an.
Nvidia nutzt auf eigenen sowie auf AMD- und Intel-GPUs den H.264-Codec, auf den eigenen Shield-Geräten hingegen H.265; die Bitrate beträgt einstellbar maximal bis zu 50 MBit/s.
Nachtrag vom 12. Februar 2020, 10:42 Uhr
Nvidia hat die Geforce RTX 2080c im Performance-Overlay umbenannt, dort wird sie nun als "g6.full" bezeichnet - wir haben die Tabelle entsprechend aktualisiert.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Das stimmt, dass H265 eine höhere Latenz beim encoding hat, allerdings ist die Datenrate...
Hm, könnte auch an schlechtem Empfang liegen. Oder die verwendete WLAN-Hardware hat...
Liegt vielleicht trotzdem an der Maus, bei meiner kann ich mit 1cm Bewegung den gesammten...
Shield Tablet ist ja leider nicht mehr so richtig auf dem Schirm, habe aber rausgefunden...