Mesh und Punktwolke
Dazu werden die Daten zunächst von den Capture PCs auf Datenserver verschoben, auf denen die Verarbeitung erfolgt. Das geschieht hauptsächlich auf Grafikkarten, weshalb jeder Server mindestens vier davon hat.
Jedes Kamerapaar erfasse die Szenerie mit dem Schauspieler aus einer Perspektive, sagt Schreer. "Jedes Stereosystem erzeugt demnach einen Satz von 3D-Punkten, und diese 3D-Informationen über alle Stereosysteme werden fusioniert, so dass dann ein geschlossenes 3D-Modell, eine 3D-Punktwolke resultiert. Da wir die Analyse über eine Videosequenz machen, erhalten wir also eine Sequenz von 3D-Punktwolken."
Nun seien 3D-Punktwolken aber kein geeignetes Format für Computergrafiken, sagt Schreer. Deswegen werde die Punktwolke in ein Mesh überführt. Das sei aber immer noch viel zu groß zum Rendern. "Deswegen setzen wir danach noch einen Mesh-Reduktions-Algorithmus an, der dann ein Mesh pro Frame erzeugt, das für das Endgerät, auf dem die Mesh-Sequenz verwendet wird, die geeignete Größe hat."
Bei einer VR-Experience, die mit einem HMD wie der HTC Vive oder Oculus Rift betrachtet wird, besteht so ein Mesh aus etwa 70.000 Dreiecken, bei einer Augmented-Reality-Anwendung für ein mobiles Endgerät wie Tablet oder Smartphone aus 10.000 bis 20.000 Dreiecken - jeweils pro Frame.
Die Informationen über Farbe und Textur der abgebildeten Personen oder Objekte stecken in der Punktwolke. "Wir trennen hier die Berechnung der Geometrie von der Bestimmung der Textur. Wir erzeugen zuerst das Mesh und anschließend projizieren wir die Textur aus den Kameras auf das entsprechende Mesh", erklärt Schreer. "Dann enthält jedes Mesh zusätzlich den Texturatlas, der abhängig von der Zielanwendung 1K, 2K oder 4K haben kann. Das hängt von der Performance des Endgerätes ab." Das alles ist sehr aufwendig und kostet entsprechend Rechenzeit: Eine Minute volumetrisches Video zu rendern, dauert je nach Auflösung 12 bis 24 Stunden.
Der Schauspieler wird im Kostüm aufgenommen
Vorteil dieser Aufnahmetechnik: Der Schauspieler trägt vor der Kamera das Kostüm, das für den Film oder die VR-Experience nötig ist - wie beim herkömmlichen Film. Das ermögliche eine möglichst realistische Abbildung seines Spiels, sagt Schreer. Das zeichne eine Aufnahme im volumetrischen Studio gegenüber dem Motion Capture aus, das üblicherweise für Animationsproduktionen eingesetzt wird. Dabei werden die Bewegungen eines Schauspielers aufgenommen, das Kostüm wird anschließend digital auf den Körper montiert.
Das sei deutlich aufwendiger, als wenn der Schauspieler direkt mit Kostüm gefilmt werde. "Wir machen hier alles in einem: Wir erfassen den Schauspieler in seiner ganzen Natürlichkeit, in seiner vollständigen Bewegung, und erhalten nach der vollautomatischen Verarbeitung sofort eine Mesh-Sequenz, die dann in CGI-Szenen integriert werden kann", sagt Schreer. Weiterer Vorteil: Es sei nach wie vor schwierig, Gesichtsausdrücke und sich bewegende Kleidung realistisch zu animieren. Im volumetrischen Studio werde beides aufgenommen und entsprechend auch realistisch abgebildet.
Das volumetrische Studio kann aber noch mehr: Es erzeugt praktisch jede beliebige Lichtstimmung.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Volumetrisches Studio: Neues Studio ermöglicht Aufnahmen für begehbaren Film | LEDs erzeugen jede beliebige Lichtstimmung |
Du vergleichst da Äpfel mit Birnen. Das Buch ist kein visuelles Medium und darauf...
Es mag ja was dran sein, was du da schreibst aber was hat das unter dem Artikel zu...
Du hast mir gerade den Tag versüßt :)
Wenn die so animiert werden wie bei diesem neuen Spiderman-Spiel, was hier gestern...