VR Works: Multi-Res Shading für Shooter oder Let's Plays denkbar
Eigentlich ist Multi-Resolution Shading für Virtual Reality gedacht, Nvidia überlegt aber, die Technik auch für schnelle Ego-Shooter oder interaktive Let's-Play-Videos mit 360-Grad-Sicht umzusetzen.

Nvidia hat auf der GPU Technology Conference 2016 in San Jose, Kalifornien, erneut über VR Works, also das hauseigene SDK für Virtual Reality, gesprochen und verschiedene Tools daraus näher erläutert. Dabei ging der Hersteller ausführlich auf Multi-Resolution Shading ein, zeigte eine Demo auf Basis der Unreal Engine 4 und sagte in der abschließenden Q&A-Runde, die Technik sei auch für Anwendungen abseits von Virtual Reality interessant.
Multi-Resolution Shading wurde bereits auf der Computex 2015 angekündigt, an der Funktionsweise hat sich daher nichts geändert: Alle aktuellen VR-Headsets verwenden spezielle (Fresnel-)Linsen, damit der Nutzer das Bild direkt vor seinen Augen fokussieren kann. Die Darstellung muss daher gekrümmt erfolgen, um die Verzerrungen durch die Linsen auszugleichen. Dieser Render-Vorgang wird Lens Warp genannt, Oculus VR und Valve setzen ihn für das Rift sowie SteamVR proprietär im jeweiligen SDK für die Headsets um.
Dabei werden Informationen in den Außenbereichen gequetscht, zudem sind die Abbildungsqualität der Linsen und das Auflösungsvermögen des menschlichen Auges nicht so gut wie im Zentrum der Darstellung. Das macht sich Nvidia beim Multi-Res Shading zunutze: Der Framebuffer wird vor dem Lens Warp in mehrere Viewports unterteilt und einzig die Mitte mit voller Auflösung gerendert. In den Außenbereichen wird die Pixelmenge reduziert, was je nach Spiel und Szene in einer 30 bis 50 Prozent höheren Bildrate resultiert.
Für die Unreal Engine 4 ist Multi-Resolution Shading als Implementierung verfügbar, was Nvidia anhand einer kurzen Demo zeigte. Die Darstellung erfolgte ohne Lens Warp, weshalb die Frage aufkam, ob die Render-Technik nicht auch für normale Spiele wie sehr schnelle Ego-Shooter oder Spiele auf Mobile-Geräten interessant sei, was der Hersteller bejahte. Man arbeite an einer entsprechenden Umsetzung, habe aber nichts Konkretes anzukündigen.
Eine andere Idee ist, Multi-Resolution Shading zu nutzen, um eine VR-Szene komplett in 360 Grad zu rendern: Was der Nutzer sieht, wird in voller Auflösung dargestellt, die restlichen Informationen hingegen mit weniger Pixeln. Bei einem Let's Play könnten Zuschauer so in andere Richtungen blicken, die Szenerie genießen oder den Spieler warnen. Theoretisch sei das auch als VR-Ausgabe statt per Video-Stream auf einem normalen Monitor denkbar, allerdings aufgrund der Latenz nicht in Echtzeit.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Die wollen am Rand die Auflösung nur verringern, weil die gerenderten Pixel eh...