Damit der Vorgang an sich etwas transparenter wird, versuche ich zu beschreiben, wie das gemacht werden könnte. Das hängt nicht zuletzt von der verwendeten Software ab.
Benötigt wird
- eine Real-Footage, eine mit Kamera aufgenommene Person, die die Peitsche in die Hand bekommen soll. Am besten hält sie einen in Display-Green bemalten Stab in der Hand, der später getrackt und ausgetauscht werden kann. Die Handhaltung stimmt dann ja auch schon.
- Eine Peitsche als 3D Modell
- eine VFX Software ^^ (After Effects, Nuke, Fusion ...)
- u.U. ein 3D Programm, s.u.
Kamerabewegung und Bewegung der Peitsche sollten getrackt werden. D.h. man rechnet die Bewegung der Kamera des Originalfilms (Real-Footage) mit der Person heraus, um die Kamerabewegung als Datensatz zu haben. Diese Kamerabewegung kann man dann in einem 3D Programm nutzen. Das gleiche passiert mit dem Stab den die Person hält, um Daten zu haben, die die Peitsche korrekt an die Hand bindet. Sowohl in Bewegung als auch in der Drehung.
Alternativ kann auch Rotoscoping dafür eingesetzt werden, die sprichwörtliche Handarbeit, bei der Bild für Bild die richtige Position und Drehung der Knute nachgezeichnet würde. Der Begriff kommt ursprünglich jedenfalls von diesem Nachzeichnen, meint heute aber oft auch den Vorgang, ein bewegtes Objekt aus einem Film zu isolieren und auszuschneiden, und dabei seinen Bewegungen zu folgen. Man hat u.U. also auch eine Bewegungskurve über die Zeit. Das Ergebnis sind allerdings dann keine 3D Daten, die Tiefe muss man in diesem Beispiel selbst hinzufügen. Allein mit diesen Daten könnte man ein 3D Objekt schon in der VFX an die Hand binden.
Mit den getrackten Daten kann man z.B. in einer 3D Software die Bewegung der Knute und der Peitschenschnur simulieren. Peitschen haben ja meist irgendwelche elastischen Teile, m.W. sind die meisten VFX Programme nicht dazu in der Lage, diese Simulationen zu errechnen. Und man hat die richtigen Bewegungsdaten der Kamera und Knute, so dass sich unsere 3D Peitsche korrekt im Raum verhält. Geschwungen wird sie dank Tracking von den virtuellen Händen. Das kann übrigens problematisch sein, wenn die Hand sich vor und zurück bewegt, von der Kamera aus gesehen. U.U. reicht schon das Tracking der Hand aus.
Die Peitsche muss also in einer 3D Software simuliert werden. Evtl. kann man das Ergebnis dieser Simulation direkt in die VFX Software holen, oder man rendert sie im 3D Programm. Das bringt übrigens meistens das bessere Ergebnis. Es gibt schon nette Tools wie
Element 3D für After Effects, jedoch arbeiten alle 3D Räume in VFX Programmen mit 3D Engines, wie man sie aus Games her kennen mag. Das bedeutet, die Renderfähigkeiten sind gegenüber denen von 3D Programmen begrenzt, wenn sie auch in vielen Fällen völlig ausreichen.
Diese Footage, der gerenderte Film der bewegten und simulierten Peitsche, wird in der VFX Software mit der Real-Footage zusammengebracht werden. Dafür ist sie da, die VFX Software. Hier findet die Montage statt - der grüne Stab muss ja überdeckt werden, und die 3D-Footage von der Peitschenknute, hoffentlich immer an der richtigen Stelle, muss wiederum an der Hand so bearbeitet werden, dass die Finger drüber liegen.
Der spaßige Teil besteht in den Effekten für die Peitsche, Feuer und Funken. Bei der Peitschenschnur muss man noch schauen, wo sie auf Objekte in der Real-Footage trifft. Auch dafür ist die VFX Software da: um virtuelle Effekte in den Fim zu bringen (Daher die Abkürzung,
Visual e
Ffe
X, zur Abgrenzung der SFX, Special Effects wie Blut, Wunden und andere "Hardware". Da SFX real ist, VFX im Computer enstehen, hört man auch hier und da Virtual statt Visual Effects).
Gerade AE ist da schon immer etwas weniger gut ausgestattet gewesen, sonst würde es Plugins wie Frischlufts Lenscare, RE:Visons Reelsmart MB oder die
Trapcode Particular Tools von RedGiant nicht geben, obowhl das teilweise in AE integriert ist. Ja, es hat Partikeleffekte und mittlerweile sowas wie einen 3D Raum, hat sich dahin gehend aber lange nicht mit Ruhm bekleckert.
Macher von Programmen wie Hitfilm haben darauf reagiert, indem sie Dinge, die in AE (nur) mit Plugins gut machbar sind, direkt in die Software integriert haben: aufwändige Partikeleffekte, 3D Import uvam. Ob Hitfilm an Profitools herankommt, sei dahingestellt, aber es ist nicht die einzige VFX Software, die diese 5, 6 Lücken von Haus aus füllt (nur die kostenpflichtige Variante! Bei dem kostenlosen Express fehlt nahezu alles und müsste dazugekauft werden). Bei Fusion und Nuke kann man sich da sicher sein, Blender und Houdini bringen eh von Haus aus alles was 3D, Simulation oder Partikeleffekt ist, mit (von Nuke gibt es 3 Versionen. Welche was kann, kann ich nicht sagen, lässt sich aber sicher bei the foundry herausfinden. Bei einer Software ab 4.000 EUR wäre das eh dringend angeraten
). Auch beim Feuer in z.B. AE kann ich nicht sagen, wie gut das wirklich ist und ob das reicht. Wenn nicht gut, gibt es garantiert auch hierfür das passende Plugin.
Wer sich überwinden kann mit Nodes zu arbeiten, ist letztlich aber mit Fusion bzw. jetzt Da Vinci Resolve mit integriertem Fusion besser bedient. Um das kurz zu erklären: Der Entwickler Blackmagic Design hat schon lange 2 Tools in seinem Repertpoire: Da Vinci Resolve für Schnitt und ColorGrading (etwa wie Premiere und andere reine Schnittlösungen) und Fusion, dem VFX Tool. Die gibt es auch beide noch, allerdings konnte man auch beide bis vor kurzem noch separat und kostenlos bekommen. Seit der v16 ist Fusion jedoch zusätzlich fast vollständig in Resolve integriert. Seit dem gibt es Resolve immer noch kostenlos, aber mit Fusion drin, und Fusion mit ein paar Features mehr, aber nur kostenpflichtig. Verwirrend, kann ich aber auch nicht ändern ^^
Inhalte dieses Beitrags können gerne von VFX'lern ergänzt werden.
Zum Abschluss die Liste der gebräuchlichsten oder geschichtlich relevanten VFX Programme:
TheFoundry Nuke, NukeX, Nuke Studio (state of the art)
(state of the art, hat Combustion abgelöst)
Quantel Henry (der Vollständigkeit halber. Henry schrieb VFX Geschichte)
Adobe After Effects (midlevel)
BMD Fusion (verlinkt zu Resolve. Highlevel)
Apple Motion (von Final Cut, Apple only)
Apple Shake (aus, 2008, Apple only)
Natron (frei. Totgesagt, Entwicklung geht aber seit April 20 weiter)
Autodesk Combustion (aus, 2008)
JahShaka (aus, 2006 - Achtung, es gibt ein neues JahShaka vom Entwickler, das hat aber nicht mit VFX zu tun)
Hitfilm Pro
Diese haben einen Sonderstatus:
Blender (3D Software mit integrierter VFX Oberfläche)
(3D + highend FX Software mit integrierter VFX Oberfläche)
(da bin ich mir nicht sicher ob das nicht nur reines Schnitt- bzw. Motiongraphics-Programm ist/bleibt. Z.Zt free beta)
Clarisse / Builder (im weitesten Sinne, Clarisse ist so viel mehr ^^ aber nicht unbedingt eine VFX Software)