V-Sync aus, Adaptive Sync ein
Der CPU-Takt sollte möglichst fix und der verwendete USB-Port idealerweise direkt an den Prozessor statt an den Chipsatz angebunden sein. Wir verwenden daher einen achtkernigen Ryzen 7 5800X, auch die Corsair-MP-600-SSD hängt per PCIe Gen4 an der CPU. Als Display kommt ein Samsung Odyssey C27G7 mit 1440p und 240 Hz zum Einsatz, angeschlossen ist es an eine Geforce RTX 3070 als Founder's Edition.
Um zu prüfen, welchen Einfluss die Frequenz des Displays auf die Latenz hat, reicht es bereits, den Windows-Desktop zu vermessen. Ausgehend von 60 Hz (42 ms) über 120 Hz (26 ms) bis hin zu 240 Hz (17 ms) reduziert sich die Verzögerung signifikant. Wer nun anmerkt, dass doch schon bei 60 Hz theoretisch 16,7 ms anliegen sollten, hat die Rechnung ohne das restliche System und ohne den Desktop Window Manager (DWM) gemacht.
Der arbeitet mit vertikaler Synchronisation (V-Sync), sprich bei 60 Hz liegen 60 Bilder pro Sekunde an. Diese werden zudem doppelt gepuffert. Aufgrund dieses Double-Buffering wird das Zerreißen (Tearing) des Bildes auf dem Desktop verhindert, weil die Grafikkarte aber auf das Display warten muss, steigt die Latenz an.
V-Sync verursacht Lag
In Spielen ist das - wenig überraschend - nicht anders, wie unsere Messungen zeigen. Um genügend Varianz zu haben, nutzen wir drei Titel: Call of Duty Warzone mit IW 8.0 Engine, Fortnite mit Unreal Engine 4 und Rainbow Six Siege mit Anvil Next 2.0 Engine. Bei Ersterem erfassen wir per LDAT das Mündungsfeuer und bei den anderen beiden ein aufblitzendes weißes Quadrat, was von den Entwicklerstudios zur Latenzmessung eingebaut wurde.
Nach der Mauseingabe durchlaufen diese Daten eine lange Pipeline: Vom Betriebssystem über die Game-Engine sind diverse CPU-Berechnungen nötig, damit eine Render-Queue für die Grafikkarte erstellt und von dieser abgearbeitet werden kann. Schlussendlich findet das Scanout für die Bildausgabe auf dem Display statt, was ebenfalls einige Zeit braucht.
Um die System-Latenz insgesamt zu drücken, gibt es beim letzten Glied in der Kette zwei grundlegende Optionen, von denen sich eine bei jedem Monitor - egal ob Gaming oder nicht - anwenden lässt. Die erste ist schlicht, V-Sync zu deaktivieren und Tearing in Kauf zu nehmen. Das sieht jedoch unschön aus und im schlimmsten Fall geht durch die entstehenden Bildfehler ein Schuss daneben.
Adaptive Sync verhindert Tearing
Alternativ kann Freesync (AMD) respektive G-Sync (Nvidia) genutzt werden, weil hier die Display-Frequenz an die Bildrate angepasst wird und nicht umgekehrt. Der finale Scanout erfolgt allerdings unabhängig von der variablen Refresh-Rate mit der maximalen Frequenz des Panels, weshalb 60 Fps bei sagen wir 240 Hz mit Adaptive Sync eine niedrigere Latenz ergeben als bei fixen 60 Hz.
Werden mehr Frames pro Sekunde gerendert als das Display an Hz aufweist, gibt es jedoch wieder Tearing - sofern nicht bewusst die vertikale Synchronisation zugeschaltet wird (und sich ergo auch die Latenz wieder erhöht). Um dieses Verhalten zu umgehen, bietet sich ein sogenannter Frame-Limiter an.
Ein solcher Fps-Begrenzer macht genau das, was seine Bezeichnung impliziert und limitiert die Bildrate auf einen gewünschten Wert. Liegt dieser leicht unterhalb der Adaptive-Sync-Obergrenze, gibt es überdies kein Tearing und auch keinen V-Sync-Lag.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
LDAT v2 im Test: Der Gaming-Latenz auf der Spur | Framerate begrenzen, Render-Queue kürzen |
Die Differenz wäre ausreichend. Quasi das schnellste Setup als Referenz und dann...
Kleine Ergänzung hier, VSync sollte jederzeit aktiviert bleiben, um Tearing zu...
Da gehts um stimulus detection abhängig von Präsentationsdauer. Nicht um Reaktionszeit...
Ja okay. Es ist vielleicht Krümelkackerei von mir, aber ich meinte eben auch die...