Original-URL des Artikels: https://www.golem.de/news/nvidia-ki-wird-die-computergrafik-revolutionieren-1703-126466.html    Veröffentlicht: 01.03.2017 08:45    Kurz-URL: https://glm.io/126466

Nvidia

"KI wird die Computergrafik revolutionieren"

Deep Learning soll Spiele schlauer, vor allem aber schöner machen - sagt Nvidia. Außerdem hat das Unternehmen neue Angebote für Profi- und Hobbyentwickler vorgestellt und Andeutungen über eine High-End-PC-Version von Final Fantasy 15 gemacht.

"Achtet auf künstliche Intelligenz, das wird in den nächsten Jahren die Spielegrafik bestimmen wie kein anderes Thema", mit diesen Worten hat Jeff Fisher, Vizechef von Nvidia, eine mehrstündige Veranstaltung im Rahmen der GDC 17 in San Francisco beendet. Zuvor hat einer seiner Ingenieure ebenfalls betont, welche Bedeutung Deep Learning und neuronale Netze für das Aussehen von Spielen bekommen: "Künstliche Intelligenz wird die Computergrafik revolutionieren", so Dr. Steven Parker, der bei Nvidia für den Bereich Professional Graphics zuständig ist.

Parker hat ausführlich erklärt, wie man sich das bei Nvidia vorstellt. "Bereits jetzt funktionieren Verfahren, mit denen Gesichter in einem Spiel mit Hilfe neuronaler Netze erkannt und dann automatisch die Lippen beim Sprechen animiert werden können", so Parker. Die Algorithmen würden aber auch immer besser darin, künstlerische Effekte in Echtzeit in 3D zu integrieren.

Das, was die 2016 veröffentlichte App Prisma mit Bildern kann, könnte in Spielen für ganze Welten funktionieren. Übrigens ist es kein Zufall, dass Nvidia in den Befehlssatz seiner aktuellen Pascal-GPUs auch schon eine Reihe von Instruktionen speziell für KI-Algorithmen aufgenommen hat.

Das alles ist übrigens nicht nur Utopie, sondern bei Nvidia ab sofort verfügbar: Auf der Firmenseite Gameworks: Materials and Textures können Nutzer unter anderem die Auflösung von Fotos oder Texturen auf Basis neuronaler Netze hochskalieren lassen. Dabei kommen laut Nvidia nicht einfach die sonst üblichen Bildverfeinerungswerkzeuge zum Einsatz, sondern serverseitig recht aufwendige Berechnungen.

Automatische Highlights im Stream

Neben den Vorstellungen von der Zukunft der Computergrafik hat Nvidia bei der Veranstaltung eine Reihe von kleineren und größeren Neuerungen für praktisch seine gesamte Software vorgestellt. Interessant für Streamer ist etwa die Möglichkeit, dass mit der Videocapture-Software Shadowplay künftig automatisch die besten Momente in Spielen identifiziert werden können.

Dazu müssen die Entwickler per SDK festlegen, welche dieser Augenblicke besonders vielversprechend sind. Das könnte etwa ein weiter Sprung in einem Rennspiel, ein Headshot in einem Actiontitel oder ein finaler Kampf in einem Rollenspiel sein.

Flex und Flow für Final Fantasy 15

Der Spieler soll sich also nicht mehr selbst um die besten Szenen kümmern müssen, sondern nur am Ende der Partie auswählen, ob er eine bestimmte Szene beispielsweise auf Youtube oder Twitch hochladen möchte. Das erste Spiel, das diese Funktion vom Start weg unterstützt, soll Law Breakers sein, das für den Herbst 2017 geplante Actionspiel von Cliff Bleszinski.

Weitere Ankündigungen gab es rund um die Foto-Aufnahmefunktion Ansel, die künftig neben Unity und der Unreal Engine 4 auch direkt von Amazons Lumberyard-Engine unterstützt wird. Überhaupt war die Bereitstellung weiterer SDKs und APIs eines der Hauptthemen bei der Veranstaltung. Dazu kamen eine Reihe von Umsetzungen, etwa von der bei Xbox-Entwicklern beliebten Middelware Pix für Windows - damit lassen sich Rückschlüsse auf die Auslastung der CPU ziehen.

Mehr Support für DirectX-12

Neu war auch, dass die partikelbasierten Animationstechnologien Flex (Flüssigkeiten) und Flow (Flammen, Explosionen und Gas) ab sofort auch für DirectX-12 zur Verfügung stehen und neue Funktionen bekommen. Das wurde unter anderem anhand einer grafisch - auch mit Hairworks - ordentlich aufpolierten Umsetzung von Final Fantasy 15 vorgestellt, was natürlich die Spekulationen über eine High-End-PC-Fassung des Rollenspiels neu anheizt.

Entsprechende Fragen hat Hajime Tabata von Square Enix mit "kein Kommentar" und einem Lachen beantwortet; das Video mit den bei Nvidia gezeigten Szenen soll in den nächsten Tagen veröffentlicht werden.

Auf der Suche nach dem verlorenen Frame

Ein größeres Thema war auch Virtual Reality. Hier hat Nvidia ein neues Tool für Entwickler präsentiert, nämlich den FCAT Data Analyzer. Damit soll es möglich werden, bei VR-Anwendungen genau festzustellen, ob die nötige Bildrate von 90 fps eingehalten wird oder ob ab und zu Einzelbilder etwa wegen einer zu hohen Last ausgelassen werden.

Für Anwender mag das merkwürdig klingen, aber Entwickler dürften sich über dieses weitere Analysewerkzeug freuen, weil sie so ihre Spiele mit wesentlich weniger Aufwand optimieren können. Noch müssen sie das selbst tun - neuronale Netze sind dabei leider keine Hilfe.  (ps)


Verwandte Artikel:
Geforce Partner Program: Nvidia soll Grafikkarten-Exklusivität erzwingen   
(09.03.2018, https://glm.io/133253 )
Wintersport: Roboter Curly spielt Curling   
(08.03.2018, https://glm.io/133219 )
Microsoft: KI-Framework kommt auf Windows-10-Endgeräte   
(08.03.2018, https://glm.io/133217 )
Tensorflow: Das US-Militär nutzt KI-Systeme von Google   
(07.03.2018, https://glm.io/133194 )
Gluon: AWS und Microsoft stellen quelloffene KI-Schnittstelle vor   
(13.10.2017, https://glm.io/130602 )

© 1997–2019 Golem.de, https://www.golem.de/