Software steuert den Arm
Eine sehr ausgeklügelte Software namens Flair macht es relativ leicht, Kamera- und Schärfefahrten, wie sie Matting eben demonstriert hat, in wenigen Schritten zu programmieren. Die Kunst besteht darin, eine ästhetische und dynamische Fahrt mit möglichst wenigen Wegpunkten, sogenannten Keyframes, und in möglichst kurzer Zeit zu programmieren, die dennoch alle Anforderungen der Kreativen mit höchster Genauigkeit erfüllt.
Geplant wird der Move - sei er nun einfach oder komplex - in der Software selbst oder auch in 3D. Die Software setzt die Fahrt dann in die Bewegungen der verschiedenen Achsen des Kameraroboters um: Da ist zunächst die Schiene oder Track, auf der der Roboter fährt. Sie kann bis zu 18 Meter lang sein. Über eine Zahnstange in der Mitte der Schiene wird die Basis des Systems, Dolly genannt, angetrieben und linear bewegt.
Der Arm kann verlängert werden
Auf dem Dolly ist der Arm befestigt, an dessen Ende der Kamerakopf montiert ist. Er wird von zweiner Spindelantrieben nach oben und unten bewegt (Lift) und kann rotiert (Rotate) werden. Der Arm kann zusätzlich noch einmal um gut einen Meter verlängert werden. Dieser Auszug oder Extend wird beispielsweise eingesetzt, um eine schnellere Kamerafahrt zu erzielen oder um eine Fahrt zu stabilisieren.
Da der Extend den Track ergänzt, gilt er als redundante Achse. Eine zweite redundante Achse ist der Head Angle: Damit kann der gesamte Kamerakopf um bis zu 180 Grad rotiert werden. Zu den Achsen des Milo kommen noch die drei Achsen des Kamerakopfes: Der kann die Kamera schwenken (Pan), kippen (Tilt) und drehen (Roll). Mit dem Head Angle ist es möglich, den Milo zu bewegen und dabei die Kamera in einer festen Position zu halten.
Ein Sensor zählt Schwarz-Weiß-Wechsel
An jeder Achse sitzt ein Encoder, der die Bewegung überwacht. Das erfolgt optisch: Auf der Achse sitzt eine Art Siemensstern, ein optischer Sensor zählt die Schwarz-Weiß-Wechsel. Daraus errechnet die Software die Stellung der Achsen, wo Milo sich gerade befindet, und wie der Arm ausgerichtet ist.
Für den Operator sind aber die einzelnen Achsen nicht relevant, er muss sich nicht darum kümmern. Er überlegt sich einen Weg, den die Kamera zurücklegen soll. Die Umsetzung und die Ansteuerung der Achsen übernimmt die Software per inverser Kinematik. Das sei wie beim Greifen, sagt Neumann. "Dann sagst du ja auch nicht: Schulter, beug dich vor, Oberarm, klapp runter, Ellenbogen, klapp auf, Hand, dreh dich, sondern du denkst an die zwei Finger, die etwas auf dem Tisch greifen wollen."
Der Computer zieht die Schärfe
"Wenn wir aber wissen, an welchem Punkt die Kamera selbst ist, wissen wir noch nicht, wo sie hinguckt, wir haben also noch keine Werte für Pan und Tilt", sagt Matting. Dabei hilft das Target, ein definierter Punkt im Raum, auf den die Kamera ausgerichtet ist.Das ist eine zusätzliche Information, die der Software mitgeteilt werden muss. Aus der Triangulation zwischen Kameraposition und Target, dem Target Tracking, werden dann permanent wichtige Informationen berechnet, wie eben Pan und Tilt der Kamera selbst. Es ist darüber hinaus sogar ein automatisiertes Ziehen des Fokus möglich. Das macht ein Motor am Objektiv der Kamera.
Allerdings wird der Fokus in den seltensten Fällen automatisch, sondern in aller Regel "nach Bild" programmiert - schließlich ist die Schärfe eines der wichtigsten Mittel cineastischer Bildgestaltung überhaupt.
Ist die Fahrt programmiert, kann es also losgehen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Motion Control: Kamerafahrten für die perfekte Illusion | Arm und Kamera müssen synchron sein |
"Ok." https://www.youtube.com/watch?v=OnBC5bwV5y0
Da würd' ich gern mal meine RED drauf schrauben und mich mal ne Woche mit dem Roboter...
So wie z.b. Schweiß-, Lackier-, Schneid-, Mess- oder Rollfalzroboter? ;-) Wie aus den...
Brushless DC, keine Schrittmotoren (keiner mag Schritte bei kontinuierlichen...