Obstruction-Free Photography: Algorithmus entfernt störende Elemente aus Fotos

Zäune sind ein Ärgernis: Sie ergeben keinen schönen Vordergrund. Sind die Maschen sehr eng, lässt sich selbst mit dem Objektiv direkt davor nur schwer hindurch fotografieren. Spiegelungen auf Scheiben sind auch nur in Ausnahmefällen schön, meistens stört das Spiegelbild des Fotografen. Ganz schlimm wird es, wenn auch noch Fingerabdrücke, Regentropfen oder Schmutz auf der Scheibe sind. Ein Algorithmus, den Forscher vom Massachusetts Institute of Technology (MIT) und von Google entwickelt haben, soll künftig solche Störungen entfernen.

Statt eines einzigen Bildes nimmt der Nutzer eine kurze Videosequenz des Motivs auf, wobei er die Kamera etwas bewegt. In den einzelnen Videobildern verschieben sich dadurch der störende Vordergrund, also etwa die Reflexion in einer Scheibe, und der Hintergrund, das eigentliche Motiv, leicht gegeneinander.
Algorithmus trennt Vorder- und Hintergrund
Der Algorithmus analysiert die Sequenz. Er betrachtet in dem Video sich bewegende Kanten. Anhand der Kanten werden die Bilder analysiert. Der Algorithmus extrahiert dann den Vorder- und den Hintergrund, beide können getrennt betrachtet werden.
Die Bildsequenz muss nicht unbedingt ein Video sein: Der Algorithmus funktioniert auch, wenn ein Panorama aufgenommen wird. Beim Montieren der Einzelbilder, dem Stitchen, wird der störende Vordergrund erkannt und aus dem Bild herausgerechnet.
Obstruction-Free Photography(öffnet im neuen Fenster) nennen die Forscher das, Fotografieren ohne Hindernis. Sie wollen den Algorithmus auf der Siggraph(öffnet im neuen Fenster) vorstellen. Die Computergrafik-Konferenz findet vom 9. bis 13. August in Los Angeles statt.



