Mesh und Punktwolke

Dazu werden die Daten zunächst von den Capture PCs auf Datenserver verschoben, auf denen die Verarbeitung erfolgt. Das geschieht hauptsächlich auf Grafikkarten, weshalb jeder Server mindestens vier davon hat.

Stellenmarkt
  1. Projektmanager/IT-Business Analyst (m/w/d)
    Enovos Energie Deutschland GmbH, Saarbrücken, Wiesbaden
  2. Application Administrator BDE / Anwendungsadministrator (m/w/d)
    igus GmbH, Köln
Detailsuche

Jedes Kamerapaar erfasse die Szenerie mit dem Schauspieler aus einer Perspektive, sagt Schreer. "Jedes Stereosystem erzeugt demnach einen Satz von 3D-Punkten, und diese 3D-Informationen über alle Stereosysteme werden fusioniert, so dass dann ein geschlossenes 3D-Modell, eine 3D-Punktwolke resultiert. Da wir die Analyse über eine Videosequenz machen, erhalten wir also eine Sequenz von 3D-Punktwolken."

Nun seien 3D-Punktwolken aber kein geeignetes Format für Computergrafiken, sagt Schreer. Deswegen werde die Punktwolke in ein Mesh überführt. Das sei aber immer noch viel zu groß zum Rendern. "Deswegen setzen wir danach noch einen Mesh-Reduktions-Algorithmus an, der dann ein Mesh pro Frame erzeugt, das für das Endgerät, auf dem die Mesh-Sequenz verwendet wird, die geeignete Größe hat."

Bei einer VR-Experience, die mit einem HMD wie der HTC Vive oder Oculus Rift betrachtet wird, besteht so ein Mesh aus etwa 70.000 Dreiecken, bei einer Augmented-Reality-Anwendung für ein mobiles Endgerät wie Tablet oder Smartphone aus 10.000 bis 20.000 Dreiecken - jeweils pro Frame.

Golem Karrierewelt
  1. Adobe Photoshop für Social Media Anwendungen: virtueller Zwei-Tage-Workshop
    29./30.06.2022, virtuell
  2. Jira für Anwender: virtueller Ein-Tages-Workshop
    03.06.2022, virtuell
Weitere IT-Trainings

Die Informationen über Farbe und Textur der abgebildeten Personen oder Objekte stecken in der Punktwolke. "Wir trennen hier die Berechnung der Geometrie von der Bestimmung der Textur. Wir erzeugen zuerst das Mesh und anschließend projizieren wir die Textur aus den Kameras auf das entsprechende Mesh", erklärt Schreer. "Dann enthält jedes Mesh zusätzlich den Texturatlas, der abhängig von der Zielanwendung 1K, 2K oder 4K haben kann. Das hängt von der Performance des Endgerätes ab." Das alles ist sehr aufwendig und kostet entsprechend Rechenzeit: Eine Minute volumetrisches Video zu rendern, dauert je nach Auflösung 12 bis 24 Stunden.

Der Schauspieler wird im Kostüm aufgenommen

Vorteil dieser Aufnahmetechnik: Der Schauspieler trägt vor der Kamera das Kostüm, das für den Film oder die VR-Experience nötig ist - wie beim herkömmlichen Film. Das ermögliche eine möglichst realistische Abbildung seines Spiels, sagt Schreer. Das zeichne eine Aufnahme im volumetrischen Studio gegenüber dem Motion Capture aus, das üblicherweise für Animationsproduktionen eingesetzt wird. Dabei werden die Bewegungen eines Schauspielers aufgenommen, das Kostüm wird anschließend digital auf den Körper montiert.

  • Was ist ein volumetrisches Studio? Da stellen wir uns mal ganz dumm und sagen: Das ist ein großer, runder, weißer Raum. (Bild: Werner Pluta/Golem.de)
  • Den Rest erklärt uns Oliver Schreer vom Fraunhofer HHI, der das Studio mit entwickelt hat. (Bild: Martin Wolf/Golem.de)
  • In dem Studio nehmen 32 Kameras auf drei Ebenen eine Person auf, die auf der runden Fläche agiert. (Bild: Werner Pluta/Golem.de)
  • Es sind 5K-Industriekameras ... (Bild: Werner Pluta/Golem.de)
  • ... mit 35-mm-Objektiven. (Bild: Werner Pluta/Golem.de)
  • Die Kameras sind als Paare für 3D-Aufnahmen angeordnet. (Bild: Martin Wolf/Golem.de)
  • Die Daten werden per Glasfaser zu Capture-PCs übertragen, wo sie gespeichert werden - bis zu 1,6 TByte pro Minute. (Bild: Martin Wolf/Golem.de)
  • LED-Paneele sorgen für eine gleichmäßige Ausleuchtung des Studios. Sie können jede beliebige Lichtstimmung erzeugen. (Bild: Werner Pluta/Golem.de)
  • Und darum geht es: eine möglichst realistische 3D-Darstellung eines Menschen aufzunehmen. (Bild: Werner Pluta/Golem.de)
  • Gesichtszüge und Bewegungen von Kleidung lassen sich mit dieser Aufnahmetechnik besser als bisher abbilden. (Bild: Werner Pluta/Golem.de)
  • Per HMD lassen sich die VR-Bilder erkunden - der Boxring schützt den VR-Nutzer vor schmerzhaften Begegnungen mit der echten Realität. (Bild: Werner Pluta/Golem.de)
  • Die VR-Experience An Entire Life hat das Fraunhofer HHI zusammen mit der Ufa produziert. (Bild: Werner Pluta/Golem.de)
  • Wo ist die Geigerin denn nur? Für AR-Anwendungen auf mobilen Geräten ist die Auflösung geringer als für VR-Experiences, die mit HMD erkundet werden. (Bild: Werner Pluta/Golem.de)
Gesichtszüge und Bewegungen von Kleidung lassen sich mit dieser Aufnahmetechnik besser als bisher abbilden. (Bild: Werner Pluta/Golem.de)

Das sei deutlich aufwendiger, als wenn der Schauspieler direkt mit Kostüm gefilmt werde. "Wir machen hier alles in einem: Wir erfassen den Schauspieler in seiner ganzen Natürlichkeit, in seiner vollständigen Bewegung, und erhalten nach der vollautomatischen Verarbeitung sofort eine Mesh-Sequenz, die dann in CGI-Szenen integriert werden kann", sagt Schreer. Weiterer Vorteil: Es sei nach wie vor schwierig, Gesichtsausdrücke und sich bewegende Kleidung realistisch zu animieren. Im volumetrischen Studio werde beides aufgenommen und entsprechend auch realistisch abgebildet.

Das volumetrische Studio kann aber noch mehr: Es erzeugt praktisch jede beliebige Lichtstimmung.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Volumetrisches Studio: Neues Studio ermöglicht Aufnahmen für begehbaren FilmLEDs erzeugen jede beliebige Lichtstimmung 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


mojocaliente 06. Aug 2018

Du vergleichst da Äpfel mit Birnen. Das Buch ist kein visuelles Medium und darauf...

masel99 04. Aug 2018

Es mag ja was dran sein, was du da schreibst aber was hat das unter dem Artikel zu...

Alexander1996 03. Aug 2018

Du hast mir gerade den Tag versüßt :)

Eheran 03. Aug 2018

Wenn die so animiert werden wie bei diesem neuen Spiderman-Spiel, was hier gestern...



Aktuell auf der Startseite von Golem.de
Prehistoric Planet
Danke, Apple, für so grandiose Dinosaurier!

Musik von Hans Zimmer, dazu David Attenborough als Sprecher: Apples Prehistoric Planet hat einen Kindheitstraum zum Leben erweckt.
Ein IMHO von Marc Sauter

Prehistoric Planet: Danke, Apple, für so grandiose Dinosaurier!
Artikel
  1. Retro Gaming: Wie man einen Emulator programmiert
    Retro Gaming
    Wie man einen Emulator programmiert

    Warum nicht mal selbst einen Emulator programmieren? Das ist lehrreich und macht Spaß - wenn er funktioniert. Wie es geht, zeigen wir am Gameboy.
    Von Johannes Hiltscher

  2. Playstation: Sony plant Filme, Serien und Mobilspiele - und die PS5 Pro?
    Playstation
    Sony plant Filme, Serien und Mobilspiele - und die PS5 Pro?

    Eine Verfilmung von Gran Turismo mit Starregisseur, Serien für God of War und Horizon: Sony hat viel vor. Zur PS5 Pro gibt es einen Leak.

  3. Cloudgaming: Microsoft bestätigt Game-Pass-Streaming-Box
    Cloudgaming
    Microsoft bestätigt Game-Pass-Streaming-Box

    Seit Jahren gibt es Gerüchte über eine Alternative zur aktuellen Xbox-Konsolengeneration. Microsoft hat dies nun ganz konkret bestätigt.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Prime Video: Filme leihen für 0,99€ • Gigabyte RTX 3080 12GB günstig wie nie: 1.024€ • MSI Gaming-Monitor 32" 4K UHD günstig wie nie: 999€ • Mindstar (u. a. AMD Ryzen 5 5600 179€, Palit RTX 3070 GamingPro 669€) • Days of Play (u. a. PS5-Controller 49,99€) [Werbung]
    •  /