• IT-Karriere:
  • Services:

Mesh und Punktwolke

Dazu werden die Daten zunächst von den Capture PCs auf Datenserver verschoben, auf denen die Verarbeitung erfolgt. Das geschieht hauptsächlich auf Grafikkarten, weshalb jeder Server mindestens vier davon hat.

Stellenmarkt
  1. Universitätsklinikum Münster, Münster
  2. Hannover Rück SE, Hannover

Jedes Kamerapaar erfasse die Szenerie mit dem Schauspieler aus einer Perspektive, sagt Schreer. "Jedes Stereosystem erzeugt demnach einen Satz von 3D-Punkten, und diese 3D-Informationen über alle Stereosysteme werden fusioniert, so dass dann ein geschlossenes 3D-Modell, eine 3D-Punktwolke resultiert. Da wir die Analyse über eine Videosequenz machen, erhalten wir also eine Sequenz von 3D-Punktwolken."

Nun seien 3D-Punktwolken aber kein geeignetes Format für Computergrafiken, sagt Schreer. Deswegen werde die Punktwolke in ein Mesh überführt. Das sei aber immer noch viel zu groß zum Rendern. "Deswegen setzen wir danach noch einen Mesh-Reduktions-Algorithmus an, der dann ein Mesh pro Frame erzeugt, das für das Endgerät, auf dem die Mesh-Sequenz verwendet wird, die geeignete Größe hat."

Bei einer VR-Experience, die mit einem HMD wie der HTC Vive oder Oculus Rift betrachtet wird, besteht so ein Mesh aus etwa 70.000 Dreiecken, bei einer Augmented-Reality-Anwendung für ein mobiles Endgerät wie Tablet oder Smartphone aus 10.000 bis 20.000 Dreiecken - jeweils pro Frame.

Die Informationen über Farbe und Textur der abgebildeten Personen oder Objekte stecken in der Punktwolke. "Wir trennen hier die Berechnung der Geometrie von der Bestimmung der Textur. Wir erzeugen zuerst das Mesh und anschließend projizieren wir die Textur aus den Kameras auf das entsprechende Mesh", erklärt Schreer. "Dann enthält jedes Mesh zusätzlich den Texturatlas, der abhängig von der Zielanwendung 1K, 2K oder 4K haben kann. Das hängt von der Performance des Endgerätes ab." Das alles ist sehr aufwendig und kostet entsprechend Rechenzeit: Eine Minute volumetrisches Video zu rendern, dauert je nach Auflösung 12 bis 24 Stunden.

Der Schauspieler wird im Kostüm aufgenommen

Vorteil dieser Aufnahmetechnik: Der Schauspieler trägt vor der Kamera das Kostüm, das für den Film oder die VR-Experience nötig ist - wie beim herkömmlichen Film. Das ermögliche eine möglichst realistische Abbildung seines Spiels, sagt Schreer. Das zeichne eine Aufnahme im volumetrischen Studio gegenüber dem Motion Capture aus, das üblicherweise für Animationsproduktionen eingesetzt wird. Dabei werden die Bewegungen eines Schauspielers aufgenommen, das Kostüm wird anschließend digital auf den Körper montiert.

  • Was ist ein volumetrisches Studio? Da stellen wir uns mal ganz dumm und sagen: Das ist ein großer, runder, weißer Raum. (Bild: Werner Pluta/Golem.de)
  • Den Rest erklärt uns Oliver Schreer vom Fraunhofer HHI, der das Studio mit entwickelt hat. (Bild: Martin Wolf/Golem.de)
  • In dem Studio nehmen 32 Kameras auf drei Ebenen eine Person auf, die auf der runden Fläche agiert. (Bild: Werner Pluta/Golem.de)
  • Es sind 5K-Industriekameras ... (Bild: Werner Pluta/Golem.de)
  • ... mit 35-mm-Objektiven. (Bild: Werner Pluta/Golem.de)
  • Die Kameras sind als Paare für 3D-Aufnahmen angeordnet. (Bild: Martin Wolf/Golem.de)
  • Die Daten werden per Glasfaser zu Capture-PCs übertragen, wo sie gespeichert werden - bis zu 1,6 TByte pro Minute. (Bild: Martin Wolf/Golem.de)
  • LED-Paneele sorgen für eine gleichmäßige Ausleuchtung des Studios. Sie können jede beliebige Lichtstimmung erzeugen. (Bild: Werner Pluta/Golem.de)
  • Und darum geht es: eine möglichst realistische 3D-Darstellung eines Menschen aufzunehmen. (Bild: Werner Pluta/Golem.de)
  • Gesichtszüge und Bewegungen von Kleidung lassen sich mit dieser Aufnahmetechnik besser als bisher abbilden. (Bild: Werner Pluta/Golem.de)
  • Per HMD lassen sich die VR-Bilder erkunden - der Boxring schützt den VR-Nutzer vor schmerzhaften Begegnungen mit der echten Realität. (Bild: Werner Pluta/Golem.de)
  • Die VR-Experience An Entire Life hat das Fraunhofer HHI zusammen mit der Ufa produziert. (Bild: Werner Pluta/Golem.de)
  • Wo ist die Geigerin denn nur? Für AR-Anwendungen auf mobilen Geräten ist die Auflösung geringer als für VR-Experiences, die mit HMD erkundet werden. (Bild: Werner Pluta/Golem.de)
Gesichtszüge und Bewegungen von Kleidung lassen sich mit dieser Aufnahmetechnik besser als bisher abbilden. (Bild: Werner Pluta/Golem.de)

Das sei deutlich aufwendiger, als wenn der Schauspieler direkt mit Kostüm gefilmt werde. "Wir machen hier alles in einem: Wir erfassen den Schauspieler in seiner ganzen Natürlichkeit, in seiner vollständigen Bewegung, und erhalten nach der vollautomatischen Verarbeitung sofort eine Mesh-Sequenz, die dann in CGI-Szenen integriert werden kann", sagt Schreer. Weiterer Vorteil: Es sei nach wie vor schwierig, Gesichtsausdrücke und sich bewegende Kleidung realistisch zu animieren. Im volumetrischen Studio werde beides aufgenommen und entsprechend auch realistisch abgebildet.

Das volumetrische Studio kann aber noch mehr: Es erzeugt praktisch jede beliebige Lichtstimmung.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Volumetrisches Studio: Neues Studio ermöglicht Aufnahmen für begehbaren FilmLEDs erzeugen jede beliebige Lichtstimmung 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


Anzeige
Top-Angebote
  1. 79,99€ (Release 18.06.)
  2. (u. a. Total War Promo (u. a. Total War: Three Kingdoms für 25,99€, Total War: Attila für 9...
  3. (u. a. Samsung GQ65Q700T 65 Zoll 8K für 1.199€, LG OLED65BX9LB 65 Zoll OLED für 1.555€)
  4. 654€ (mit Rabattcode "PLUSDEALS10" - Bestpreis)

mojocaliente 06. Aug 2018

Du vergleichst da Äpfel mit Birnen. Das Buch ist kein visuelles Medium und darauf...

masel99 04. Aug 2018

Es mag ja was dran sein, was du da schreibst aber was hat das unter dem Artikel zu...

Alexander1996 03. Aug 2018

Du hast mir gerade den Tag versüßt :)

Eheran 03. Aug 2018

Wenn die so animiert werden wie bei diesem neuen Spiderman-Spiel, was hier gestern...


Folgen Sie uns
       


Mercedes EQA Probe gefahren

Wir sind mit dem EQA von Mercedes-Benz für ein paar Stunden unterwegs gewesen.

Mercedes EQA Probe gefahren Video aufrufen
Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme

      •  /