• IT-Karriere:
  • Services:

Geforce Now im Test: Nvidia nutzt einzigartige CPU und GPU

Wer mit Nvidias Geforce Now spielt, bekommt laut Performance Overlay eine RTX 2060c oder RTX 2080c, tatsächlich aber werden eine Tesla RTX T10 als Grafikkarte und ein Intel CC150 als Prozessor verwendet. Die Performance ist auf die jeweiligen Spiele abgestimmt, vor allem mit Raytracing.

Ein Test von veröffentlicht am
Nvidia setzt bei Gefore Now auf eine Tesla RTX T10, hier in Doom.
Nvidia setzt bei Gefore Now auf eine Tesla RTX T10, hier in Doom. (Bild: Bethesda/Screenshot: Golem.de)

Seit einigen Tagen ist Nvidias Geforce Now für alle verfügbar, was wir zum Anlass genommen haben, uns den Spielestreamingdienst erneut genauer anzuschauen. Nvidia unterscheidet zwischen einer kostenlosen Version und einer für 5,49 Euro pro Monat. Die Spiele-Performance ist identisch, allerdings schaltet Nvidia nur bei der kostenpflichtigen Version die Raytracing-Unterstützung frei.

Stellenmarkt
  1. KION Group AG, Frankfurt am Main
  2. Diehl Stiftung & Co. KG, Nürnberg

Nvidia spricht von 1080p60, also 1.920 x 1.080 Pixeln bei 60 Bildern pro Sekunde, alternativ ist 720p120 möglich. Laut Hersteller erhalten Spieler bei Geforce Now im besten Fall die Geschwindigkeit einer Geforce RTX 2080 - was wir bestätigen können. Es hängt allerdings vom Titel ab, welche Hardware tatsächlich eingesetzt wird. Bei weniger anspruchsvollen Spielen wie Doom oder Grim Dawn teilt Nvidia weniger Rechenleistung zu als bei Metro Exodus oder Quake 2 RTX mit Raytracing.

Generell laufen die Titel auf Nvidias Server in sogenannten Pods, das sind Nodes mit virtualisierten Beschleunigerkarten (VGX). Die Basisversion davon ist mit einer Tesla P40 und einem Xeon E5-2697 v4 ausgestattet, die neueren Rechenknoten hingegen verwenden eine Tesla RTX T10 und einen Intel CC150. Dabei erhält nicht jeder Nutzer den vollen Zugriff auf alle Ressourcen, sondern Nvidia verteilt die Last teilweise dynamisch je nach Spiel. Wer wissen will, worauf er gerade zockt, kann sich via Strg+Alt+F6 einblenden lassen, welche Performance-Klasse zum Einsatz kommt. Wir haben hierzu allerhand Spiele mehrmals gestartet, um möglichst viele Nodes und deren Konfiguration herauszufinden zu können.

Performance OverlayGrafikkarteProzessor
Geforce GTX 1080cTesla P40 (24GB)Xeon E5-2697 v4 (8T @ 2,3 GHz)
Geforce RTX 2060cTesla RTX T10 (8GB) - 1/3Intel CC150 (8T @ 3,5 GHz)
Geforce RTX 2080c (g6.full)Tesla RTX T10 (16GB) - 2/3Intel CC150 (8T @ 3,5 GHz)
Nodes bei Geforce Now (basierend auf unseren Messungen)

Wird im Performance Overlay eine Geforce GTX 1080c (wie Custom) angezeigt, handelt es sich um besagte Tesla P40 mit vollen 24 GByte Videospeicher und den Xeon E5-2697 v4. Die Tesla P40 ist in der Praxis ein bisschen flotter als eine echte Geforce GTX 1080, der Xeon E5-2697 v4 mit alter Broadwell-Architektur und 2,3 GHz bremst hingegen teils ein bisschen, zumal Nvidia nur acht logische Kerne von 18C/36T freischaltet. Für 1080p60 genügt die Leistung unseren Benchmarks zufolge auch in CPU-lastigen Titel wie Assassin's Creed Origins.

Alternativ startet Nvidia weniger anspruchsvolle Spiele auf einer Geforce RTX 2060c, welche von der Performance her gut mit der Geforce GTX 1080c vergleichbar ist. Im Server-Pod wird dann eine Tesla RTX T10 mit 8 GByte Videospeicher verwendet, hinzu kommt ein Intel CC150. Hierbei handelt es sich um einen 8C/16T-Prozessor mit 3,5 GHz und aktueller Coffee-Lake-Technik, wobei Nvidia davon acht logische Kerne pro User vergibt (offenbar 4C/8T). Wer Borderlands 3 oder Titel mit Raytracing spielt, erhält eine Geforce RTX 2080c. Konkret rechnet eine Tesla RTX T10 mit 16 GByte und ebenfalls der Intel CC150 mit acht logischen Kernen, die Performance entspricht fast einer echten Geforce RTX 2080.

  • Bei Assassin's Creed Odyssey wird eine RTX 2080c alias Tesla RTX T10 mit 16 GByte verwendet. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)
  • In 1080p erreicht diese GPU über 60 fps. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)
  • Die RTX 2080c wird im Overlay oben links aucg als "g6.full" bezeichnet. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)
  • Bei Assassin's Creed Origins erhalten wir eine GTX 1080c alias Tesla P40 mit 24 GByte. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)
  • Die Bildrate liegt bei knapp 60 fps, denn der Xeon-Prozessor bremst etwas. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)
  • Doom läuft in diesem Fall ebenfalls mit einer GTX 1080c alias Tesla P40. (Rechteinhaber: Bethesda/Screenshot: Golem.de)
  • Alternativ erhalten wir eine RTX 2060c alias Tesla RTX T10 mit 8 GByte. (Rechteinhaber: Bethesda/Screenshot: Golem.de)
  • Borderlands 3 nutzt kein Raytracing, ist aber anspruchsvoll. (Rechteinhaber: Gearbox/Screenshot: Golem.de)
  • Daher setzt Nvidia hier ebenfalls auf eine RTX 2080c alias Tesla RTX T10 mit 16 GByte. (Rechteinhaber: Gearbox/Screenshot: Golem.de)
Bei Assassin's Creed Odyssey wird eine RTX 2080c alias Tesla RTX T10 mit 16 GByte verwendet. (Rechteinhaber: Ubisoft/Screenshot: Golem.de)

Die Tesla RTX T10 basiert auf einem TU102-Chip mit unbekanntem Takt, dieser hat höchstwahrscheinlich 24 GByte Videospeicher zu. Im Falle der Geforce RTX 2080c nutzt Nvidia also 2/3 des Speichers, sprich 16 GByte, und bei der Geforce RTX 2060c dann 1/3 - also 8 GByte. Grundlegend ist auch geplant, eine Tesla RTX T10 für Titel wie Civilization 5 auf vier Spieler aufzuteilen, diese Option verwendet Nvidia aber bisher noch nicht.

Von der Performance her liefert Nvidia laut unseren Tests stabil 1080p60, auch mit Raytracing in Metro Exodus oder Quake 2 RTX. Die Bildqualität hängt davon ab, wie schnell die Internetleitung und wie stark das Netzwerk gerade fragmentiert ist. Im Büro am Vormittag erreichten wir mit einer 200-MBit/s-Leistung exzellente Resultate, am frühen Abend daheim bekamen wir trotz gleicher Geschwindigkeit hingegen recht viel Matsch zu Gesicht - erst nach 21 Uhr näherte sich die Bildqualität der im Büro an.

Nvidia nutzt auf eigenen sowie auf AMD- und Intel-GPUs den H.264-Codec, auf den eigenen Shield-Geräten hingegen H.265; die Bitrate beträgt einstellbar maximal bis zu 50 MBit/s.

Nachtrag vom 12. Februar 2020, 10:42 Uhr

Nvidia hat die Geforce RTX 2080c im Performance-Overlay umbenannt, dort wird sie nun als "g6.full" bezeichnet - wir haben die Tabelle entsprechend aktualisiert.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 4,99€
  2. 3,74€
  3. 33,99€
  4. 3,99€

lennartc 14. Feb 2020 / Themenstart

Das stimmt, dass H265 eine höhere Latenz beim encoding hat, allerdings ist die Datenrate...

wurstdings 12. Feb 2020 / Themenstart

Hm, könnte auch an schlechtem Empfang liegen. Oder die verwendete WLAN-Hardware hat...

wurstdings 12. Feb 2020 / Themenstart

Liegt vielleicht trotzdem an der Maus, bei meiner kann ich mit 1cm Bewegung den gesammten...

BlindSeer 12. Feb 2020 / Themenstart

Shield Tablet ist ja leider nicht mehr so richtig auf dem Schirm, habe aber rausgefunden...

WoFNuLL 12. Feb 2020 / Themenstart

Ab heute spielst du CoD auf jedenfall erstmal nichtmehr: Activision / Blizzard hat alle...

Kommentieren


Folgen Sie uns
       


Kuschelroboter Lovot angesehen (CES 2020)

Lovot ist ein kleiner Roboter, der bei seinem Besitzer für gute Stimmung sorgen soll. Er lässt sich streicheln und reagiert mit freudigen Geräuschen.

Kuschelroboter Lovot angesehen (CES 2020) Video aufrufen
Nasa: Boeing umging Sicherheitsprozeduren bei Starliner
Nasa
Boeing umging Sicherheitsprozeduren bei Starliner

Vergessene Tabelleneinträge, fehlende Zeitabfragen und störende Mobilfunksignale sollen ursächlich für die Probleme beim Testflug des Starliner-Raumschiffs gewesen sein. Das seien aber nur Symptome des Zusammenbruchs der Sicherheitsprozeduren in der Softwareentwicklung von Boeing. Parallelen zur Boeing 737 MAX werden deutlich.
Von Frank Wunderlich-Pfeiffer

  1. Nasa Boeings Starliner hatte noch einen schweren Softwarefehler
  2. Boeing 777x Jungfernflug für das größte zweistrahlige Verkehrsflugzeug
  3. Boeing 2019 wurden mehr Flugzeuge storniert als bestellt

Threadripper 3990X im Test: AMDs 64-kerniger Hammer
Threadripper 3990X im Test
AMDs 64-kerniger Hammer

Für 4.000 Euro ist der Ryzen Threadripper 3990X ein Spezialwerkzeug: Die 64-kernige CPU eignet sich exzellent für Rendering oder Video-Encoding, zumindest bei genügend RAM - wir benötigten teils 128 GByte.
Ein Test von Marc Sauter und Sebastian Grüner

  1. Ryzen Mobile 4000 (Renoir) Lasst die Ära der schrottigen AMD-Notebooks enden!
  2. HEDT-Prozessor 64-kerniger Threadripper schlägt 20.000-Dollar-Xeons
  3. Ryzen Mobile 4000 AMDs Renoir hat acht 7-nm-Kerne für Ultrabooks

Energiegewinnung: Zu wenig Magma-Nachschub für die Geothermie
Energiegewinnung
Zu wenig Magma-Nachschub für die Geothermie

Bei Diskussionen über Geothermie klingt es oft so, als könnten vulkanisch aktive Gegenden wie Island den Rest der Welt mit Energie versorgen. Aber ein Blick auf die Zahlen zeigt, dass dieser Eindruck täuscht.
Von Frank Wunderlich-Pfeiffer

  1. E-Truck Nikola Tre wird in Ulm gebaut
  2. Wasserstoff Thyssen-Krupp will Stahlproduktion klimaneutral machen
  3. Energiewende Sonnen vermietet Solaranlagen und Elektroautos

    •  /