Zum Hauptinhalt Zur Navigation

Interview CTO: "Bei Epic verbinden wir seit zehn Jahren Gaming und Filme"

GDC 2024
Interview mit Kim Libreri: Golem.de hat mit dem CTO von Epic Games über fortschrittliche Grafikeffekte und generative KI gesprochen.
/ Peter Steinlechner
Kommentare News folgen (öffnet im neuen Fenster)
Kim Libreri, CTO bei Epic Games, auf der GDC 2024 (Bild: Peter Steinlechner / Golem.de)
Kim Libreri, CTO bei Epic Games, auf der GDC 2024 Bild: Peter Steinlechner / Golem.de

Normalerweise eröffnet Tim Sweeney, Chef und Gründer von Epic Games, die State of Unreal. In diesem Jahr ging das nicht: Sweeney musste wegen des Rechtsstreits mit Apple nach Australien.

An seiner Stelle hat Kim Libreri (Chief Technology Officer, CTO) die Show eröffnet und sich auf der Bühne mit Amy Hennig über den Trailer mit erstem Gameplay aus 1943 – Rise of Hydra unterhalten .

Im Rahmen der State of Unreal gab es noch viele technisch orientierte Neuigkeiten rund um die Engine, um Fortnite, Lego und vieles mehr.

Außerdem hat Epic Games angekündigt, den momentan nur für PC verfügbaren Epic Games Store bis Ende 2024 auch auf iOS und Android zu eröffnen, mit Spielen von Epic und von anderen Entwicklern.

Speziell auf iOS in den USA dürfte das nach aktueller Lage nicht möglich sein. Golem.de hat Libreri auch dazu befragt – obwohl das eigentlich nicht sein Zuständigkeitsbereich ist. Er hat uns gesagt, dass der Store dann quasi fertig programmiert sei, mehr könne oder wolle er dazu aber nicht sagen.

Golem.de: Das auf der State of Unreal vorgestellte Marvel 1943 – Rise of Hydra war beeindruckend. Und als klar wurde, dass es in Echtzeit läuft und nicht vorgerendert ist, konnte man die Leute im Publikum regelrecht nach Luft schnappen hören. Warum sieht das so fantastisch aus?

Kim Libreri: Wir bei Epic Games haben Fortnite gemacht, davor Unreal Tournament und Gears of War. Wir haben einen Hintergrund als Spieleentwickler und als Anbieter von Spieletechnologie – damit meine ich natürlich die Unreal Engine 5.

Aber viele von uns kommen auch aus der Filmbranche. Seit rund zehn Jahren verbinden wir Gaming und Filme, um die beiden Branchen zusammenzubringen. Wir wollen Spiele entwickeln, die nicht nur fantastisch spielbar sind, sondern auch so gut aussehen wie ein Film.

Ich selbst war vorher bei Industrial Light and Magic (Lucasfilm) und habe unter anderem an den Matrix-Filmen gearbeitet.

In den vergangenen Jahren haben wir ein Feature aus der Filmbranche nach dem anderen in die Unreal Engine eingebaut – und zwar mit einem Auge, das durch die Arbeit an visuellen Effekten bei Filmen geschult ist.

Golem.de: Können Sie uns Beispiele für derartige Effekte nennen, die vom Filmemachen ins Gaming übernommen wurden?

Libreri: Ja, etwa die Beleuchtung. Wenn man eine Figur beleuchtet, verwenden wir bei Filmeffekten unter anderem Raytracing und globale Illumination. Wir haben das jetzt in der Unreal Engine, unsere Version der globalen Beleuchtung heißt Lumen.

Die andere Sache ist, dass das grundlegende System für das Animieren von Gesichtern eigentlich für das Filmgeschäft erfunden wurde. Dort heißt es Blend Shapes – gemeint ist, dass man die Formen eines Gesichts von Frame zu Frame ändert.

Diese Technologien kamen in Filmen wie Avatar oder Der seltsame Fall des Benjamin Button zum Einsatz. Da wurde Pionierarbeit geleistet!

Wir haben mit unseren Ingenieuren bei Epic Games hart daran gearbeitet, das in Echtzeit tun zu können. Das gilt sogar für die Art und Weise, wie wir die Mimik der Schauspieler einfangen. Wir benutzen auf dem Kopf getragene Kameras, ähnlich wie man es bei einem Film machen würde. Nur, bei uns muss alles in Echtzeit ablaufen.

Golem.de: Bei der Präsentation von 1943 ging es auch um die adaptive Tesselierung des Bodens, in der Unreal Engine gehört das zum Nanite-System. Was heißt das für Entwickler – bedeutet es mehr Arbeitsstunden pro Quadratmeter im Spiel, oder weniger?

Libreri: Es bedeutet vor allem mehr Details. Zunächst einmal ist Nanite ein Kernstück der Unreal Engine. Nanite ermöglicht es den Entwicklern, Milliarden und Abermilliarden von Dreiecken in einer Synchronisation zu verarbeiten.

Arbeitsbelastung der Spieleentwickler und generative KI

Wenn man eine Milliarde Dreiecke in einem Level hat, sind das eine Menge Daten. Und obwohl auch die Konsolen inzwischen über viel Speicher verfügen, möchte man nicht allzu große Dateien haben – auch wegen der Downloads.

Wir haben also wieder einmal einen Sprung zur Filmbranche gemacht und das implementiert, was man dort Mikropolygon-Verschiebung nennt. Unsere Nanite-Tesselation ist die Möglichkeit, etwa ein Graustufenbild zu verwenden, um die Höhe zu definieren.

Wenn man also eine Erhöhung haben möchten, baut man ein Bild unter die darunter liegende Geometrie ein, und die Silhouette oder das Profil dieses Bildes dringt durch und erzeugt neue Details.

Diese Technik gibt es in der Filmbranche seit 30 oder 40 Jahren, aber in Echtzeit war es unmöglich. Unser Entwicklungsteam hat das letzte Jahr damit verbracht, sich Gedanken darüber zu machen, wie wir es doch in interaktiven Umgebungen hinbekommen.

Golem.de: Mehr Details bedeutet eine größere Arbeitsbelastung für die Entwickler. Ist das ein Thema bei Epic Games?

Libreri: Es war schon immer sehr schwierig, Spiele zu entwickeln. Man braucht sehr qualifizierte Leute, die sehr hart arbeiten. Zusammen mit der Grafik ist das Wichtigste für Spieleentwickler, das Gameplay immer wieder zu verbessern.

Wenn man ein Spiel macht, muss man schnell zum Spaß kommen. Einer der Gründe, warum wir die Umgebungsbibliothek Quixel haben, warum wir den Marktplatz haben, warum wir Metahumans und Metahuman Animatory haben ist, dass wir den Entwicklern Möglichkeiten bieten möchten, die ihnen einen Teil der Arbeit abnehmen und die Dinge für sie effizienter machen.

Und ich glaube, das funktioniert. Wenn man sich die meisten Spiele anschaut, die mit der Unreal Engine entwickelt wurden, sieht man überall Quixel-Assets. Damit haben wir den Studios offenbar tatsächlich geholfen.

Wir bemühen uns sehr, die Dinge so einfach und effizient wie möglich zu gestalten, damit die Spieleentwickler ihre Zeit und Mühe darauf verwenden können, ihr Spiel wirklich zu verfeinern.

Und das ist letztendlich das, was ihnen Einnahmen bringt. Wir tun auch viel dafür, dass sie ihr Spiel in unsere Shops stellen, indem wir so wenig Provision wie möglich verlangen, um ihnen zu helfen, mehr Geld zu verdienen, wenn sie ihr Spiel veröffentlichen.

Golem.de: Generative KI wie ChatGPT und all das, welche Rolle spielt das in der Unreal Engine?

Libreri: Wir verwenden bereits generative KI mit Daten, die wir selbst für die Gesichtsanimation erworben haben. Der Metahuman Animator ist generative KI. Die maschinell lernenden Gesichts-Rigs sind generative KI. Konkret: Der Körper von Captain America in 1943 ist generative KI.

Ich glaube, es gibt da viele interessante Entwicklungen. Aber wir müssen vorsichtig sein: Woher kommen die Daten? Viele Menschen arbeiten hart, um Inhalte zu erstellen, und sie haben ein Mitspracherecht, wohin ihre Daten gehen, wie sie verwendet werden und ob sie Teil des größeren Ganzen aller Entwickler sein wollen oder nicht.

Ich denke also, dass wir in den nächsten Jahren noch große Sprünge sehen werden. Aber im Moment müssen wir wirklich vorsichtig sein. Momentan gibt es da draußen viele Daten für generative KI, die nicht so sauber oder ethisch einwandfrei sind, wie es sein sollte.


Relevante Themen