Original-URL des Artikels: https://www.golem.de/news/team-fortress-2-valve-experimentiert-mit-vr-brillen-1301-96957.html    Veröffentlicht: 16.01.2013 17:48    Kurz-URL: https://glm.io/96957

Team Fortress 2

Valve experimentiert mit VR-Brillen

Valves Entwickler haben sich im vergangenen Jahr intensiv damit auseinandergesetzt, wie sich Augmented Reality und virtuelle Realität sinnvoll in Spielen einsetzen lassen - und dabei testweise Team Fortress 2 an das Spielen mit VR-Brille angepasst.

Entwicklerstudio, Steam-Betreiber und PC-Spielekonsolen-Entwickler Valve Software leistet sich ein eigenes Hardwarelabor. Nicht nur, um PC-Spielekonsolen wie die Steam Box zu entwickeln, sondern auch, um in den Bereichen virtuelle Realität (Virtual Reality) und erweiterte Realität (Augmented Reality) ganz vorne mitspielen zu können. In Forschungsprojekten widmet sich Valve deshalb dem Thema Wearable Computing - und zählt dazu VR- und AR-Brillen. An der Forschung beteiligt ist unter anderem Michael Abrash, der vor seiner Zeit bei Valve mit John Carmack an Quake arbeitete, bei Microsoft an den ersten beiden Xbox-Versionen mitwirkte, die Grafikausgabe von Windows NT mitentwickelte und diverse Programmierbücher verfasste.

Abrash ist einer von zwei Valve-Mitarbeitern, die auf der vom 25. bis zum 29. März 2013 in San Francisco stattfindenden Game Developers Conference Vorträge zur Umsetzung von VR und AR in Spielen halten. Zwar könnten VR und AR es diesmal aufgrund der verbesserten Technik in den Massenmarkt schaffen, dennoch ist laut Abrash noch viel Forschung und Entwicklung nötig, um endlich zu verwirklichen, was Science-Fiction-Geschichten und Werbespots schon lange versprechen. Nicht umsonst heißt sein Vortrag Why Virtual Reality is Hard (And Where it Might be Going).

Mit VR-Brillen sollen Spieler in die virtuelle Welt eintreten und sich in ihr mit Kopfbewegungen frei umschauen können - mit räumlicher Wirkung und das Sichtfeld ausfüllend. Das Gefühl, nur durch ein kleines Fenster oder ein Schlüsselloch zu schauen, soll damit der Vergangenheit angehören. Vorreiter einer neuen Generation solcher auch für Konsumenten erschwinglichen VR-Brillen ist die Oculus Rift, deren verbesserte Entwicklerversion bald ausgeliefert werden soll. Auch Augmented Reality (AR) soll das Spielen verändern können, indem das Bild der gefilmten realen Welt mit Objekten und Informationen überlagert oder erweitert wird, sei es auf dem Smartphone-Bildschirm oder auf einer der in Entwicklung befindlichen Smartglass-Brillen. Allerdings empfindet der Mensch dabei schon kleinste Ungereimtheiten als extrem störend, wie Abrash erklärt.

Reale Übelkeit in simulierten Welten

"Das menschliche Wahrnehmungssystem reagiert erstaunlich empfindlich auf bestimmte Diskrepanzen zur realen Welt, viele davon haften existierenden Head-mounted-Displays und Tracking-Systemen an", sagt Abrash. Als wichtigstes Problem sieht er die Latenzen sowohl bei AR als auch VR. Bereits in seinem offiziellen Valve-Blog Ramblings in Valve Time setzt sich Abrash damit auseinander, ab wann etwa die Verzögerungen unter anderem des Head-Trackers bei der Bewegung des Kopfes in virtuellen Welten nicht mehr wahrnehmbar sind.

"Wenn zu viel Zeit vergeht, während der Kopf anfängt sich zu drehen und das Bild für die neue Position neu gezeichnet wird, weicht das virtuelle Bild so weit ab, dass es deutlich wackelt (bei VR) oder offensichtlich nicht mehr mit den Echtwelt-Charakteristika übereinstimmt (bei AR)", schrieb Abrash kurz vor Jahreswechsel in seinem Blogeintrag Latency - the sine qua non of AR and VR. Seiner Erfahrung nach dürfte die Latenz nicht mehr als 20 ms betragen, Forschungsergebnissen zufolge müssten aber 15, wenn nicht gar 7 ms die Grenze nach oben sein. Vor allem bei Drehungen des Kopfes würden sich Verzögerungen bemerkbar machen - je schneller der Kopf sich drehe, desto stärker.

"Zu guter Letzt scheint Latenz mit der Simulatorübelkeit in Verbindung zu stehen, und je höher die Latenz, umso größer der Effekt", so Abrash. Diesen Effekt spürte auch Golem.de-Mitarbeiter Peter Steinlechner bei einer Präsentation der Oculus-Rift-Brille im vergangenen Jahr. Um die Latenz ihres Systems merklich zu verringern, haben die Oculus-Ingenieure in der Zwischenzeit aber an einem eigenen Head-Tracker gearbeitet, der Spiele-Engines innerhalb von 2 ms über Kopfbewegungen des Trägers informieren soll.

Team Fortress 2 durch die VR-Brille

Der zweite Valve-Redner, der sich während der GDC-Konferenz dem Thema virtuelle Realität und Head Mounted Displays (HMD) widmet, ist Joe Ludwig. In seinem Vortrag What We Learned Porting Team Fortress 2 to Virtual Reality will Ludwig davon berichten, wie mehrere Valve-Mitarbeiter 2012 mit verschiedenen Formen von Wearable Computing experimentierten. Unter anderem wurde dabei Valves Netzwerk-Shooter Team Fortress 2 (TF2) auf das Spielen mit VR-Brillen angepasst.

Die TF2-Anpassungen beinhalteten unter anderem die Stereodarstellung, das Rendering des 2D-User-Interface bei Brillen mit einem auf 90 Grad beschränkten Sichtfeld (Field of View, FOV), den Umgang mit View Models und wie Mouselook in First-Person-Shootern mit dem Head-Tracking interagieren kann. "Ein direkt für VR designtes Spiel könnte viele der Probleme vermeiden, die sich bei Team Fortress 2 ergaben", heißt es in der Vortragsbeschreibung.

Das sehr geringe Sichtfeld von 90 Grad lässt vermuten, dass die TF2-Anpassungen mit Prototypen der Oculus Rift erfolgt sind. Die Oculus Rift soll mit 110 Grad diagonal und 90 Grad horizontal das Sichtfeld des Spielers weitgehend ausfüllen und damit neue Maßstäbe bei Consumer-HMDs setzen. Bei manchen Konkurrenten wie etwa der Cinemizer OLED hat der Träger hingegen eher den Eindruck, durch ein Loch in virtuelle Welten zu gucken.

Die Hand nicht vor Augen sehen

Sobald eine VR-Brille den Träger komplett von der Außenwelt abschirmt, kann sich zwar die Immersion verbessern. Doch schnell stellt sich die Frage, wie sich komplexe Spiele steuern lassen sollen, wenn Maus und Tastatur gar nicht zu sehen sind. Darauf findet sich in den Vortragsbeschreibungen von Valve noch keine Antwort. In den bisherigen Präsentationen der Oculus Rift wurde in der Regel auf Gamepads zurückgegriffen, die sich auch beim Stehen und Um-die-eigene-Achse-Drehen einfacher nutzen lassen als Mäuse und Tastaturen. Doch auch hier kann man die Knöpfe nicht sehen und muss schon genau wissen, wie der Controller aufgebaut ist, damit er ohne Hinsehen bedient werden kann.

Werden wir also in Zukunft mit Force-Feedback-Datenanzügen spielen, wie es in Cyberpunk-Romanen und Science-Fiction seit Jahrzehnten zu lesen ist? Man darf entsprechend gespannt sein, was Valve alles unter Wearable Computing versteht. Und ob das Unternehmen mit der Steam Box mehr als nur eine einfache PC-Konsole mit Standardcontrollern liefern und selbst die von Valve-Chef Gabe Newell so schmerzlich vermissten Innovationen einführen wird. Newell hatte sich 2012 unter anderem darüber beklagt, dass es selbst bei Tastaturen und Mäusen seit Jahren keine nennenswerten Änderungen gegeben habe.  (ck)


Verwandte Artikel:
Valve: Für Half-Life 3 und Nachfolger war nie ein Abschluss geplant   
(18.07.2017, https://glm.io/128968 )
Valve: Dota 2 unterstützt bald Vulkan unter MacOS   
(26.02.2018, https://glm.io/133000 )
Eyetracking: Apple soll brandenburgische Firma Sensomotoric gekauft haben   
(27.06.2017, https://glm.io/128595 )
HMD Global: Neues Nokia 6 mit schnellerem Prozessor und mehr Speicher   
(05.01.2018, https://glm.io/131980 )
Apps und Games für VR-Headsets: VR taugt für mehr als nur Spiele   
(13.06.2017, https://glm.io/128337 )

© 1997–2020 Golem.de, https://www.golem.de/