3D-Videocollage: Viele Videokameras, ein Multi-Perspektiv-Rendering

Das Besondere an dem Algorithmus ist, dass er die Bilder von mehreren Handkameras zu einer räumlich navigierbaren Videokollektion verknüpft. Die aus verschiedenen Blickwinkeln aufgenommenen Videos werden dabei analysiert, Vordergrund und Hintergrund werden erkannt. Es wird ein texturiertes 3D-Abbild des Hintergrunds errechnet, die einzelnen Bildausschnitte der Szene räumlich zugeordnet und eine interaktive Ansicht erstellt.
Die Betrachtungssoftware soll einen möglichst nahtlosen Wechsel zwischen den verschiedenen Videoperspektiven ermöglichen. Damit die Übergänge möglichst sanft sind, trotz der teils wackeligen Videos von Handkameras, wird nicht sofort gewechselt, sondern ein passender Zeitpunkt abgewartet. Damit werden laut den Wissenschaftlern Darstellungsfehler minimiert.

Ein weiterer Betrachtungsmodus zeigt die gefilmte, in 3D-Grafik umgewandelte Szene mit eingeblendeten Kamerapositionen. Auch hier erinnert die Darstellung an Microsofts Software Photosynth , die aus vielen Einzelfotos – etwa von Flickr – virtuell begehbare Orte macht. Übertragen auf Videos könnte so aus privaten Aufnahmen eine Videoreise durch Veranstaltungen werden.
Auf Arbeiten an Algorithmen für Fotosammlungen basiert auch der auf der Computergrafikmesse Siggraph 2010 präsentierte Video-Prototyp. Ihren Algorithmus stellen die Forscher Luca Ballan, Jens Puwein, Marc Pollefeys (alle ETH Zürich) und Gabriel J. Brostow (University College London) dort in dieser Woche unter dem Titel " Unstructured Video-Based Rendering: Interactive Exploration of Casually Captured Videos(öffnet im neuen Fenster) " vor.



