Zum Hauptinhalt Zur Navigation

Motion Control: Kamerafahrten für die perfekte Illusion

Ein tonnenschweres Ungetüm steuert Kamerafahrten bis auf Bruchteile von Millimetern genau: Mit dem Roboterarm Milo erzeugt die Berliner Firma Mastermoves spektakuläre Visual Effects und Filmtricks, die von Hand unmöglich wären.
/ Werner Pluta
40 Kommentare News folgen (öffnet im neuen Fenster)
Kameraroboter Milo Long Arm: Bilder, die man per Hand nicht drehen kann. (Bild: Werner Pluta/Golem.de)
Kameraroboter Milo Long Arm: Bilder, die man per Hand nicht drehen kann. Bild: Werner Pluta/Golem.de

Bis zu 18 Meter lange Kamerafahrten bei hoher Geschwindigkeit, und das absolut präzise und daher jederzeit exakt wiederholbar: So etwas schafft kein Mensch, sondern nur ein Ungetüm, das auf einer Schiene fährt, rund anderthalb Tonnen schwer, etwa mannshoch, nachtschwarz und von Software gesteuert. Es steht in einem Hangar in Berlin-Adlershof. Das Unternehmen Mastermoves(öffnet im neuen Fenster) ermöglicht damit Visual Effects und Filmtricks, von denen Kameraleute lange geträumt haben. Denn durch die Kombination von virtuellen und real mit dem Roboterarm aufgenommenen Kamerafahrten entsteht die perfekte Illusion.

Wie diese: Eine Badewanne. Die Kamera fährt in Bodenhöhe darauf zu. Sie schwenkt nach oben und gibt den Blick frei auf eine Badende, die sich die Wanne mit einigen Hundert Aalen teilt. Nicht unbedingt ein sehr schöner Anblick, den der US-Regisseur Gore Verbinski dem Zuschauer im Trailer für seinen neuen Film A Cure For Wellness zumutet. Und erst recht wollte er seiner Darstellerin Mia Goth das Bad mit den Aalen ersparen. Kein Problem mit neuer Motion-Control-Filmtechnik.

Die Szene wird in mehrere Teile zerlegt, die einzeln aufgenommen und am Ende montiert werden. Das geht nur mit einem System wie Talos(öffnet im neuen Fenster) oder Milo(öffnet im neuen Fenster) : mit Robotern, die die Kamera bis auf Bruchteile von Millimetern genau steuern. "Unsere Roboter bewegen Kameras immer genau gleich, absolut wiederholbar" , erklärt Marcel Neumann, einer der beiden Geschäftsführer des Unternehmens, im Gespräch mit Golem.de. "Mit dieser Technik kann man Visual Effects und Filmtricks umsetzen, die vor allem in der Werbung und im Spielfilm eingesetzt werden."

Master Move Motion Control - Bericht
Master Move Motion Control - Bericht (02:27)

Das System, anhand dessen Neumann uns Motion Control erklärt, heißt Milo Long Arm(öffnet im neuen Fenster) . Gebaut wird es von dem britischen Unternehmen Marc Roberts Motion Control(öffnet im neuen Fenster) (MRMC), im Studio von Mastermoves steht es hinter einem Drehteller. Darauf: ein brauner Porsche, Baujahr 1972, der von zwei Scheinwerfern angestrahlt wird. Über dem Auto hängt ein großes weißes Segel Segel, das das Licht der Scheinwerfer weich reflektiert. "Ich zeige jetzt mal ein paar Moves" , sagt Rig-Operator Heiko Matting.

Auf dem Bildschirm ist kein Übergang sichtbar

Moves, das sind die Kamerafahrten. Matting setzt sich an ein Pult mit einem Computer - ein einfacher Windows-Laptop mit einer speziellen Laufzeit-Umgebung - und aktiviert das System: Der Drehteller setzt sich in Gang, Milo ebenfalls. Die Kamera fliegt auf den Porsche zu und um ihn herum, während sich das Auto auf dem Teller dreht. Dann der nächste Move: Die Kamera fliegt einen weichen Bogen auf das Porsche-Zeichen auf der Motorhaube. Trotz wechselnder Perspektive und Annäherung ist das aus den Wappen Stuttgarts und Württembergs zusammengesetzte Signet während der ganzen Kamerafahrt scharf. "Dieses Bild könnte ich per Hand nicht drehen" , sagt Neumann. "Unmöglich."

Milo hingegen macht das einmal, zweimal, dreimal, fünfmal - egal, wie oft das Rig die Bewegung wiederholen muss: Sie ist immer gleich. Gleich in der Bewegung und gleich im Ablauf der Kameraauslösung. Die Wiederholung sei so genau, dass sich die Aufnahmen aus zwei sogenannten Passes nicht unterschieden. Damit sei es möglich, die Aufnahmen auf einem geteilten Bildschirm nebeneinander ablaufen zu lassen, ohne dass ein Übergang zwischen beiden Bildern zu erkennen sei.

Was derart komplex aussieht, ist aber in der Bedienung relativ einfach.

Software steuert den Arm

Eine sehr ausgeklügelte Software namens Flair(öffnet im neuen Fenster) macht es relativ leicht, Kamera- und Schärfefahrten, wie sie Matting eben demonstriert hat, in wenigen Schritten zu programmieren. Die Kunst besteht darin, eine ästhetische und dynamische Fahrt mit möglichst wenigen Wegpunkten, sogenannten Keyframes, und in möglichst kurzer Zeit zu programmieren, die dennoch alle Anforderungen der Kreativen mit höchster Genauigkeit erfüllt.

Geplant wird der Move - sei er nun einfach oder komplex - in der Software selbst oder auch in 3D. Die Software setzt die Fahrt dann in die Bewegungen der verschiedenen Achsen des Kameraroboters um: Da ist zunächst die Schiene oder Track, auf der der Roboter fährt. Sie kann bis zu 18 Meter lang sein. Über eine Zahnstange in der Mitte der Schiene wird die Basis des Systems, Dolly genannt, angetrieben und linear bewegt.

Der Arm kann verlängert werden

Auf dem Dolly ist der Arm befestigt, an dessen Ende der Kamerakopf montiert ist. Er wird von zweiner Spindelantrieben nach oben und unten bewegt (Lift) und kann rotiert (Rotate) werden. Der Arm kann zusätzlich noch einmal um gut einen Meter verlängert werden. Dieser Auszug oder Extend wird beispielsweise eingesetzt, um eine schnellere Kamerafahrt zu erzielen oder um eine Fahrt zu stabilisieren.

Da der Extend den Track ergänzt, gilt er als redundante Achse. Eine zweite redundante Achse ist der Head Angle: Damit kann der gesamte Kamerakopf um bis zu 180 Grad rotiert werden. Zu den Achsen des Milo kommen noch die drei Achsen des Kamerakopfes: Der kann die Kamera schwenken (Pan), kippen (Tilt) und drehen (Roll). Mit dem Head Angle ist es möglich, den Milo zu bewegen und dabei die Kamera in einer festen Position zu halten.

Ein Sensor zählt Schwarz-Weiß-Wechsel

An jeder Achse sitzt ein Encoder, der die Bewegung überwacht. Das erfolgt optisch: Auf der Achse sitzt eine Art Siemensstern, ein optischer Sensor zählt die Schwarz-Weiß-Wechsel. Daraus errechnet die Software die Stellung der Achsen, wo Milo sich gerade befindet, und wie der Arm ausgerichtet ist.

Für den Operator sind aber die einzelnen Achsen nicht relevant, er muss sich nicht darum kümmern. Er überlegt sich einen Weg, den die Kamera zurücklegen soll. Die Umsetzung und die Ansteuerung der Achsen übernimmt die Software per inverser Kinematik(öffnet im neuen Fenster) . Das sei wie beim Greifen, sagt Neumann. "Dann sagst du ja auch nicht: Schulter, beug dich vor, Oberarm, klapp runter, Ellenbogen, klapp auf, Hand, dreh dich, sondern du denkst an die zwei Finger, die etwas auf dem Tisch greifen wollen."

Der Computer zieht die Schärfe

"Wenn wir aber wissen, an welchem Punkt die Kamera selbst ist, wissen wir noch nicht, wo sie hinguckt, wir haben also noch keine Werte für Pan und Tilt" , sagt Matting. Dabei hilft das Target, ein definierter Punkt im Raum, auf den die Kamera ausgerichtet ist.Das ist eine zusätzliche Information, die der Software mitgeteilt werden muss. Aus der Triangulation zwischen Kameraposition und Target, dem Target Tracking, werden dann permanent wichtige Informationen berechnet, wie eben Pan und Tilt der Kamera selbst. Es ist darüber hinaus sogar ein automatisiertes Ziehen des Fokus möglich. Das macht ein Motor am Objektiv der Kamera.

Allerdings wird der Fokus in den seltensten Fällen automatisch, sondern in aller Regel "nach Bild" programmiert - schließlich ist die Schärfe eines der wichtigsten Mittel cineastischer Bildgestaltung überhaupt.

Ist die Fahrt programmiert, kann es also losgehen.

Arm und Kamera müssen synchron sein

Stopp - noch nicht ganz. Erst muss die Kamera noch eingeschaltet werden, und zwar synchron zur Bewegung des Roboters. Besser gesagt: Der Roboter wird auf die Kamera synchronisiert. Das stellt sicher, dass die Bewegung des Rigs immer in der gleichen zeitlichen Relation zum Verschluss der Kamera oder zum elektronischen Auslesen des Sensors stattfindet.

Warum? Die Kamera hat bei 24 Bildern pro Sekunde eine Belichtungszeit von längstens einer 24stel-Sekunde. Fangen Arm und Kamera nicht gleichzeitig an, kann es einen Versatz geben, wenn die Kamerafahrt noch einmal gestartet wird. Der kann im schlimmsten Fall eine 24stel-Sekunde betragen, und die Kamera am Arm des Milo ist bis zu 2,8 Meter pro Sekunde schnell, das sind 10 Kilometer pro Stunde. Da kann eine Menge passieren.

Beim Musikvideo wurde der Sync vergessen

Stimmt etwa bei einem gemusterten Hintergrund die Synchronisation nicht, dann sind die Ergebnisse von mehreren Kamerafahrten nicht identisch. Dann ließen sich die Bilder nicht ohne erkennbaren Übergang nebeneinander stellen, sagt Neumann. Einmal, erzählt er, hätten sie bei der Aufnahme eines Musikvideos den Sync verloren. Es war ein 360-Grad-Schwenk, der den ganze Clip über lief, rund drei Minuten. Am Ende betrug der Versatz die Breite einer Person.

Das System synchronisiert aber nicht nur Kamera und Roboterarm oder Kamera und Roboterarm und Drehteller. Es können auch zwei Roboterarme angesteuert werden. Einer mit der Kamera und der andere mit einer Lichtquelle. Oder einer mit der Kamera und der andere mit dem aufzunehmenden Objekt. Oder beide mit einer Kamera. Oder Roboterarm, Kamera und ein Timecode, etwa bei einem Musikvideo.

Achsen können hinzugefügt werden

Oder Roboterarm, Kamera, Timecode und eine Lichtschranke, wie beim Trailer für die Olympischen und Paralympischen Spiele 2012 in London, der für ARD und ZDF produziert wurde. Dabei ging es darum, zwei Läufer, einen mit zwei Beinen und einen mit einer Beinprothese, in voller Bewegung ineinander übergehen zu lassen. Um die Kamerafahrt mit den Bewegungen der Sportler zu synchronisieren, wurde eine Lichtschranke und ein Metronom eingesetzt. "Du kannst einfach Achsen dranstöpseln" , sagt Neumann - auch auf die Gefahr hin, dass es für den Operator irgendwann "vielleicht etwas unübersichtlich" werde.

Über die Synchronisationsfunktion ist das Unternehmen überhaupt erst auf echte Kameraroboter gekommen. Die ersten Versuche mit Motion Control machten die Berliner nämlich mit einem Industrieroboter des deutschen Robotikunternehmens Kuka(öffnet im neuen Fenster) . Diese Roboter hätten sie erstmals bei einem Dreh im Volkswagenwerk gesehen, erzählt Neumann. Die, so überlegten sie, müssten sich doch gut für Kamerafahrten eignen.

Mastermoves experimentierte mit Kuka-Roboter

"Wir haben ein Konzept geschrieben. Das hat Kuka gefallen, und sie haben uns einen Roboter und den dazugehörigen Schaltschrank geschickt" , erzählt Neumann. "Damit haben wir dann unsere ersten Kamerafahrten programmiert." Das habe auch gut funktioniert. Allerdings habe sich auf Dauer die fehlende Synchronisation als Nachteil herausgestellt. Außerdem war der Roboter inklusive Schaltschrank nicht mobil - anders als die Systeme aus Großbritannien: Den Milo Long Arm aus dem Anhänger ans Set zu bringen und aufzubauen, schaffen drei Mann in drei Stunden, den Milo mit dem normal langen Arm zwei Mann, wenn es sein muss, in anderthalb Stunden.

Eines beherrscht der Kuka-Arm aber ebenso wie der Milo: exakt nachvollziehbare Bewegungen. Aber wofür werden mehrere Kamerafahrten benötigt?

Virtuelle + reale Szenen = perfekte Illusion

Eine Anwendung ist der Multi-Pass, also die Wiederholung einer Kamerafahrt. Das sei "der Schlüssel zu ganz vielen visuellen Effekten" , sagt Neumann. Denn um die am Computer generierten Szenen (CG) später mit Realszenen montieren zu können, müssen die virtuelle und die reale Kamerafahrt identisch sein.

Ohne Motion Control lassen sich solche Montagen nur mit einer unbewegten Kamera umsetzen. Dadurch fehlt es der Szene dann aber an Dynamik. Das Rezept für eine gelungene Illusion sei die Mischung aus realen und virtuellen Elementen, aufgenommen mit einer bewegten Kamera, sagt Matting. "Wer sagt, er könne alles in CG machen, und das sei genauso, als wäre es echt gedreht, der schwindelt einfach. Die Illusion erhöht sich dadurch, dass man reale Anteile gekonnt mit CG-Anteilen vermischt. Genauso sorgt eine bewegte Kamera für eine deutlich bessere Illusion als eine feste."

Eine Szene wird unterteilt

Die Wiederholungsgenauigkeit ermöglicht zudem, Szenen in sogenannte Part Runs zu unterteilen. Die Kamerafahrt wird in mehreren Parts aufgenommen, die am Ende zu einer durchgehenden Fahrt montiert werden. Das ermöglicht beispielsweise den Umbau der Kulisse während der Aufnahme. Eine Möglichkeit sei etwa eine Kamerafahrt durch Kegel auf einer Bowling-Bahn, sagt Neumann: Die Kegel stehen zu dicht, als dass die Kamera hindurch fahren kann.

Also wird die Fahrt gedreht bis hinter dem ersten Kegel, kurz bevor der umfalle. Dann wird der Kegel entfernt für den zweiten Part Run. Dafür fährt der Arm die Kamera ein Stück zurück, damit er auf die gleiche Geschwindigkeit beschleunigt wie zuvor. Dann wird die Fahrt bis zum nächsten Kegel gedreht - bis die Kamera den letzten Kegel passiert hat. Am Ende werden die Part Runs zu einer Kamerafahrt montiert.

Die Wand wird mittendrin abgebaut

In Matthias Schweighöfers Spielfilm Der Nanny(öffnet im neuen Fenster) aus dem Jahr 2015 etwa wurde eine Szene gedreht, bei der eine Abrissbirne durch eine Wohnung fegt. Da in der Kulisse nur wenig Platz war, verliefen die Schienen für den Roboter durch eine Wand, die am Anfang der Szene aber noch sichtbar war. Sie hätten, sagt Matting, die Szene eben in zwei Teilen gedreht. Erst den Teil, in dem die Wand zu sehen ist. Dann wurde die Wand abgebaut, und es folgte der zweite Teil der Szene. Die Abrissbirne wurde anschließend am Computer eingefügt.

Mit Milo oder Talos ließen sich schließlich auch 3D-Szenen von statischen Szenen drehen, erzählt Neumann. Und das mit nur einer Kamera. Der Roboter berechnet einfach den Augenabstand, der für die stereoskopische Aufnahme nötig ist, und plant entsprechend die zweite Fahrt.

Und der A-Cure-For-Wellness-Trailer? Hier zeigt sich besonders gut, wie leicht es ist, mithilfe des Roboterarms die perfekte Illusion zu erzeugen. Es wurden ganz einfach zwei Kamerafahrten aufgenommen und zusammenmontiert. In einer sitzt ein Modell eines Frauentorsos mit den Fischen in der Wanne. Im anderen räkelt sich Goth in der Badewanne - allein: Die Aale wollte Verbinski ihr dann doch nicht zumuten.


Relevante Themen