Antworten auf deine Fragen:
Neues Thema erstellen

Grundsätzliches über 3d und Compositing

gopper0815

Nicht mehr ganz neu hier

Hallo,

ich habe mal eine grundsätzliche Frage bezüglich einem Compositer. Warum stelle ich diese Frage im 3D Forumg? Nun weil ich ihn im Zusammenhang mit 3d Objekten nutzen möchte. Je weiter ich im 3d Bereich voranschreite, umso mehr interessiert es mich, Foto/Film und 3d zu verschmelzen. Ich würde gerne 3d Objekte in Fotos/Film einbauen oder umgekehrt, Personen in 3d Umgebungen einsetzen. Soweit ich informiert bin, macht man das in einer Composotingsoftware. Aber wo ist denn die Grenze, oder anders ausgedrückt: Ich konstruiere ein Auto in einem 3d Programm. Das möchte ich in ein Foto einfügen. Nun ist ja das Foto in einer bestimmten Perspektive augenommen worden. Somit muss ich doch dann das Auto in der entsprechenden Perspektiver rendern, damit es auch in das Foto hineinpasst. Ok, mit einem Foto kann ich es mir noch irgendwie vorstellen, wenn ich das als Hintergrund im 3d Programm einfüge und dann entsprechend aufbaue. Aber wie ist das im Film? Werden da zuerst die 3d Objekt erstellt und dann die Filmclips gedreht, oder umgekehrt? Wer war zuerst da: Die Henne oder das Ei? Und was wird noch im 3d Programm gemacht und wo beginnt die Compositingsoftware ihre Arbeit?
Das sind alles Grundsatzfragen, aber die sollten soweit geklärt sein, damit ich überhaupt tiefer in die Materie einsteigen kann. Bisher habe ich Compositings nur in Photoshop mit verschiedenen Fotos gemacht, oder eben 3d Umgebungen erstellt. Aber noch nie beide Teile miteinander verbunden.
 

Friederich

Nicht mehr ganz neu hier

Werden da zuerst die 3d Objekt erstellt und dann die Filmclips gedreht, oder umgekehrt?
Soviel ich weiß, meist umgekehrt. Aber viele Wege führen nach Rom, kann mir sehr gut vorstellen dass es Beispiele gibt in denen man wirkl. zuerst modelliert...

Nun ist ja das Foto in einer bestimmten Perspektive augenommen worden. Somit muss ich doch dann das Auto in der entsprechenden Perspektiver rendern, damit es auch in das Foto hineinpasst.
Google (oder durchsuch dein Softwarehandbuch) nach Camera Mapping... Besonders für Videosequenzen wichtig.

Aber wo ist denn die Grenze,
In deiner Phantasie.
 
Aber wie ist das im Film?
Ganz technisch: Mit Planung. Die wissen, was sie erreichen wollen. Es wird eine Szene überlegt, entworfen. Sie wissen, mit welcher Optik, von wo und mit welcher Ausleuchtung sie es haben wollen. So wie sie das früher mit Modellen, Paintings und Kulissen gemacht haben, so wird das jetzt eben ganz oder zum Teil mit SW gemacht. Dur darfst nur nicht vergessen, dass bei einem Film 2 Kompanien an Leuten mitarbeiten, das sind nur die, die dann auch im Abspann stehen. Dazu kommen noch unzählig viele, die auch mitarbeiten.
Bei einem Film oder Video benötigst Du dann noch eine präzis gesteuerte Kamera. Die macht dann dieselben Bewegungen, die auch in der Animation geschehen.
Wenn Du so einen Film vorhast und den noch dazu alleine machen willst, dann Wünsche ich Dir ein langes Leben und viel Geld.
Wenn Du Einblick in die Arbeit von Blue-/Green-screentechniken erhalten willst, dann suche danach im Netz oder auf den Zusatzinformationen auf DVDs. Da kriegst Du genügend Einblick um den Immensen Aufwand einschätzen zu können.
Aber wie bei allem: Es kommt sehr an, welche Qualitätsansprüche Du hast.
 

gopper0815

Nicht mehr ganz neu hier

Vielen Dank für die Antwort. Nein, mir ging es gar nicht darum so was Hochquailtatives zu entwickeln. Ich möchte keinen Blockbuster oder so entwerfen. Aber du hast meine entscheidende Frage beantwortet. Es wird also sehr wohl bei der Erstellung der 3d Objekte sowie der Dreharbeiten der Filmclips im Vornhinein schon darauf geachtet, dass die Perspektive in beidne Fällen stimmt. Das war der entscheidende Punkt bei dem ich nicht sicher war. Wie das dann im Highendsegment aussieht ist gar nicht so wichtig. Ich wollte nur das Prinzip verstehen.
Vielen Dank für die Info
 
Wie das dann im Highendsegment aussieht ist gar nicht so wichtig
Das Prinzip ist auf jedem Niveau gleich, nur die Realisierung kann bei höheren Ansprüchen ins Geld gehen und ist meiner Meinung nach für einen Einzelkämpfer kaum möglich.
Solche Systeme hat meines Wissens George Lucas bei den ersten Star-Wars-Filmen erstmals angewendet. Da wurden eben die Modellsequenzen mit einer computergesteuerten Kamera gemacht. Das war es eben, was eine beliebige Wiederholbarkeit einer Kamerabewegung und letzten Endes auch die Möglichkeit der selben Kamerafahrt mit einer Anpassung des optischen Systems für Sets in anderen Maßstäben ergab. Heute kann man eben auch solche Kamerafahrten virtuell machen, doch das Prinzip blieb gleich.
 
nennt sich Motion Tracking
Ist ja herzig, was die SW aus der Bewegung markierter Objekte herausrechnen kann. Leider konnte ich keinen Part 2 finden, wäre interessant gewesen zu sehen was passiert, wenn die Karte mit den Markierungspunkten z.B. umgedreht wird, oder wenn das keine harte oder nicht so kontrastreiche Karte sondern flexibles Objekt wäre.
Auch dieses Beispiel zeigt, dass eine exakte Planung notwendig und klar definierte Grenzen erforderlich sind, denn wenn plötzlich auf die dutzenden am Boden kreisenden 3D-Objekte ein Fuß hineinsteigt, wird die SW ganz schön ins Schwitzen kommen.
 

KBB

Mod 3D | Blaubaer

Teammitglied
Moin Gopper ^^

Vieles wurde schon gesagt. Als Einsteiger würde ich jetzt allerdings nur Bahnhof verstehen, deshalb erlaube ich mir, das nochmal zusammenzufassen und zu ergänzen ;)

VFX: Virtual Effects, idR. im Computer mittels CGI generierte Effekte, abzugrenzen von SFX, Special Effects - das sind die, in der mit Materie gearbeitet wird: abben Gummi-Köpfen, aufgemalten Narben, Kunstblut, Pyroeffekte wie Explosionen und Feuer, Wasser usw. Hier haben wir das glaube auch schonmal abgegrenzt, ebenso wie das Wort Compositing.
Deiner Frage nach ist man demnach heute vorwiegend ein VFX-Artist und kein Compositor bzw. Compositing-Artist, wobei letzterer eher für andere Sachen eingesetzt würde, wie Color Grading etc., soweit der Begriff überhaupt genutzt wird (und der VFX-Artist nicht eh alles mit macht ^^).

VFX sind sog. Post-Effekte, nach dem lateinischen Wort der Nachbearbeitung (post = nach, danach). D.h. idR. existiert schon irgend etwas, und das wird nachträglich mit Effekten versehen. Auch das genannte Color Grading gehört zur Post-Bearbeitung, da es zeitlich ganz am Schluss eingesetzt wird. Im Grunde sieht man 3D Objekte auch als Effekt an, deshalb wird meist erst der Realdreh durchgeführt und dann 3D nachträglich eingebaut. Oft genug läuft die Anpassung aber parallel.

Was kommt nun am Anfang? Weder Ei noch Henne, sondern das Drehbuch ^^ Und danach ein Storyboard.
In Zeiten sehr umfangreicher VFX reicht ein gescribbeltes Stück Papier (sorry an die Storyboarder, natürlich ist ein Storyboard wesentlich mehr!) selten aus, um einen Film auch filmisch zu erfassen. Sicher, da steht - richtig gemacht - eine Menge Zeugs drin, das die Kamera- (Zooms, Schwenks usw., unten) und Objektbewegungen (oben) per Symbole mit beschreibt. , in dem die Pfeile die Bewegungen andeuten. Aber bei Objekten und ganzen Szenen, die nur im Rechner existieren, oder auch bei sehr (VFX-) Action-lastigen Filmen, bedarf es schon einer optisch genaueren Darstellung des Filmablaufs. Und so wurde das Animatic (Def.) geboren.

sind (idR. im Rechner) animierte Storyboards. Der Begriff wurde von einer Firma geprägt, ist m.W. mittlerweile aber gängig. Es gibt Animatics von extrem einfach - da werden z.B. Storyboard-Zeichnungen in PS zerschnibbelt und zu einfachsten Animationen zusammengesetzt, siehe Link - bis hin zu den großen, komplexen, bei denen nachgebaute und und ganze Szenen zum Einsatz kommen können. Eine Vereinfachung gegenüber dem fertigen Film besteht häufig im Licht und Material, um Arbeits- und Renderzeiten zu sparen, aber im Grunde findet man hier ebenso häufig schon ziemlich fertige Modelle. Um Verwechslungen zu vermeiden: da wurde nichts vereinfacht, das sind zunächst einfachere Modelle, die später evtl. verfeinert werden.
Es gibt zudem Animatics für reine 3D Filme, die dann "einfach" weiterentwickelt werden. Eines der besten Beispiele, das mir dazu einfällt fand ich auf der 2. Appleseed-DVD. Da werden im making of 4 Stadien, vom Storyboard bis zum fertigen Film, nebeneinander abgespielt. Ich habe selten ein so passgenaues Ballett gesehen. Und das ist selten ^^

Man nennt die (oder eine, gängige) Methode, die dazu genutzt wird, Blocking. Das Wort kommt ursprünglich aus der Konstruktion und bedeutet hier, dass mit einfachsten Mitteln, nämlich Klötzen, Blocks, Figuren und Szenen vorgebaut und animiert werden, um Positionen, Größen, erste Bewegungen und Rhythmen festzuhalten und abschätzen zu können. Wir sind dabei immer noch im Rechner. Diese Blöcke können dann je nach Bedarf immer weiter ausgebaut und verfeinert werden, bis hin zum fertigen Modell. Das kann die Szene sein, einzelne Objekte und auch Charaktere.
Je nach Bedarf bedeutet: ein Animatic ist sehr Zeit aufwändig. Man macht es j nach Geld und Zeit nur da, wo es wirklich gebraucht wird, und/oder hält es in manchen Bereichen sehr wenig komplex, eben "mit Blöcken" und einfach nur herumgeschobenen Figuren/kollagenartig ausgeschnittenen Stücken des Storyboards, wo ausführliche Animatics nicht notwendig ist. Es sei denn, die Produzenten haben genügend Geld oder sehen eine Sparmaßnahme darin, erst alles als Animatic umzusetzen. Letztlich spart ein gut ausgeführtes Animatic Geld, weil man daran z.B. sehen kann, ob Szenen so überhaupt und mit welchem Aufwand machbar sind.
Was also genau wann und wo gemacht wird, hängt wie meist von vielen Faktoren ab wie dem Budget, der Zeit und natürlich den Leuten, die einem dazu zur Verfügung stehen, was auch wieder einen Geldfaktor darstellt.

Und damit hast Du Deine erste Antwort, was zuerst da ist: Idealerweise wird während des Filmens parallel schon an den 3D Modellen gearbeitet. Idealerweise sind diese Modelle während des Animatics entstanden und so ausgeführt, dass sie weiter verwertet werden können. Das gilt nicht nur für Charaktere, sondern für ganze Szenen, auch wenn die zu Anfang zu 90% nur "geblockt" wurden. Es kann aber eben auch sein, dass noch garnichts da ist.

U.U. stehen mit dem Animatic schon Kamerabewegungen fest. D.h. soweit in einem Film je etwas feststeht, werden doch schonmal ganze Drehbücher während des Drehs umgeschmissen, s.u.. Was das Animatic dann unbrauchbar machen kann, aber das ist eine andere Geschichte.
Aber was hilft es, wenn die Kamerabewegung im Raum schon feststeht? Das ist ziemlich einfach: bei stark VFX-lastigen Filmen kommen seit George Lucas ("Dykstraflex" - Der Name war eigentlich ein Witz und bekam einen Oscar..) Kamerasysteme zum Einsatz, die einerseits einen Bewegungsablauf aufnehmen können, andererseits einen solchen Datensatz auch abspielen und damit die Bewegung exakt wiederholen können, die z.B. im Computer anhand einer virtuellen Szene schon erstellt wurde. Die Betonung liegt häufig auf der Wiedergabe, Fakt ist aber, das solche Systeme eben auch in die andere Richtung, nämlich vom Studio zum 3D Programm, zuarbeiten können (Mit 3D Software war bei Star Wars IV noch nicht so viel, aber später umso mehr). Aufwändige Systeme zeichnen dabei nicht nur die reine Position und damit die Bewegung sowie Drehung im Raum auf, sondern auch alle Kamera-relevanten Daten wie die von Balkanese freundlicher Weise eingeworfene Brennweite ^^. Und das Objektiv, den Zoomwert, Blende, Sensor bzw. Filmgröße und was eine Kamera(-aufzeichnung) noch so ausmacht. Bei aktuellen Kameras wird das eh alles digital mit aufgezeichet (Exif & IPTC). Und nicht selten kommen heute für Full-HD Aufnahmen nicht nur in günstigeren Produktionen ganz normale Spiegelreflex-Kameras zum Einsatz.

Kommt ein solches Rig (die Aufhängung der Kamera bzw. Aufzeichnung der Daten) zum Einsatz, kannst Du damit also in beide Richtungen Daten austauschen: aus dem 3D Programm ins Studio, und von dort zurück ins 3D Programm. Es kann aber auch schlicht zu teuer, zu aufwändig oder unmöglich sein, so ein System einzusetzen: Außenaufnahmen, riesige Areale die gefilmt werden sollen (und damit riesige Krananlagen bräuchten) oder ein sehr schmaler Geldbeutel können es schwierig bis unmöglich machen, dass die Realkamera die Bewegungen macht, die sie machen soll. Oder, sehr viel häufiger: sie macht sie, kann sie aber nicht aufzeichnen (Theoretisch wäre an dieser Stelle übrigens Realtracking der Kamera, ähnlich denen vom Motion Capturing, denkbar, wird m.W. aber (noch) nicht eingesetzt). Hier kommt dann das schon angedeutete Kamera(motion)tracking zum Einsatz, eine Software, die Bewegungsabläufe aus dem schon generierten Film errechnen kann. Und zwar die der Kamera, nicht die von Objekten. Das ist geringfügig anders als das reine Objektmotiontracking, aber es ist anders. So sehr, dass die Software bei bestimmten Bewegungs/Dreh-Kombinationen streikt. Dabei spreche ich nicht von Cinemas Trackern, die übrigens schon seit der R16 integriert und in der R18 erweitert wurden, sondern von Highend Software, wie z.B. . In so einem Fall wünscht man sich dann entweder das frühzeitige Ableben des Kameramannes (der man im Idealfall selbst war ^^) oder, freundlicher, die schon fertig getrackten Daten zurück.

Wie auch immer: auch hier gibt es nicht die Henne oder das Ei. Was man zuerst macht, Realdreh oder 3D Animation, hängt von ebenso vielen Faktoren ab wie der Frage, ob man mit einer Motion Control Kamera arbeiten kann oder lieber die Footage nachträglich mit einer Software trackt. Auch wenn die Informationen für die (3D) Kamera irgendwo her kommen müssen, die idR. erst hinterher rendert und am Schluss in die Footage eingebaut wird (Dein Compositing), ist die Frage nicht eindeutig zu beantworten, weil es kein "genau und immer so und nie anders" gibt. It depends, wie der Angelsachse gerne sagt.
Sicher, von außen gesehen gibt es Produktionen, wo jeder sofort sagen würde: bei den Szenen die Reihenfolge. Aber ein Dreh, egal welcher Größenordnung, kann immer durcheinander gebracht werden. Selbst wenn man selbst das Team ist, kann die Ausrüstung unpassend sein, das Wetter oder beim Dreh stellt man fest, dass die Location letztlich suboptimal ist usw. Viele Dinge werden erst im Laufe der Produktion definitiv wahrgenommen und müssen dann angepasst oder geändert werden. Das ist auch bei Blockbustern Alltag, Blocking hin oder her.

Im blödsten Fall ist eines dieser Dinge die Wahrnehmung des Regisseurs, der das Drehbuch umschmeißt. Wenn es ganz dumm kommt, reißt er damit ganze Effektetagen mit in den Abgrund. Siehe den Fall der Firma "Rythm & Hues", die die Effekte zu "Life of Pi" gemacht hatten und zur Oscar-Verleihung bereits alle auf der Straße saßen. Fehlkalkulation, sicher. Und zwar die falsche Einschätzung dessen, was der Regisseur noch alles haben wollte: ca. 90% des Filmes besteht aus CGI & VFX, fast sämtliche Tigerszenen, sämtliche Ozeanszenen. Also eben fast alles.
Du kannst jedenfalls davon ausgehen, dass bei dieser Produktion ein ständiges Hin und Her der Daten zwischen Studio und Effektschmiede stattgefunden hat, und sicher ist "Life of Pi" ein schlechtes Beispiel für Planung. Aber Du kannst getrost davon ausgehen, dass bei *jeder* Filmproduktion immer wieder jede Menge Planung einfach über den Haufen geworfen und während des Drehs komplett umkonzipiert wird. Das passiert so oft und in so großem Umfang, dass man es nicht häufig genug sagen kann ;)


Ist ja herzig, was die SW aus der Bewegung markierter Objekte herausrechnen kann. Leider konnte ich keinen Part 2 finden, wäre interessant gewesen zu sehen was passiert, wenn die Karte mit den Markierungspunkten z.B. umgedreht wird, oder wenn das keine harte oder nicht so kontrastreiche Karte sondern flexibles Objekt wäre.
Warum sollte es einen Teil 2 dazu geben? Das will ja keiner sehen ^^
1. Wenn die Karte bewegt wird, bewegt sich die Szene mit der Karte mit. Da man sie vom Boden hochheben kann, würden also sämtliche Objekte mit gehen. Das sieht man übrigens sogar genau so im Film, und zwar schon im 1. Teil ;)
Wenn die Karte umgedreht wird, werden die Punkte so lange getrackt, wie sie sichtbar sind. Was bei sehr steilen Winkeln zu sehr lustigen Bildern führen kann. Danach ist die Frage, in welcher Umgebung man sich befindet: In Cinema hat man selbst die Entscheidung im Griff, wie es danach weiter geht. Z.B. die Objekte sind "irgendwo" im Raum, oder werden schlicht ausgeblendet oder per Hand weiter positioniert. In einer VR-Umgebung (= "Virtual Reality") wird das Objekt automatisch ausgeblendet, sobald die Marker die Bühne verlassen. Und Rumdrehen oder flexibel gebogen sein gehört definitiv dazu ;)
2. Bei einem flexiblen Objekt ist die Frage, in welchem Rahmen Toleranzen aktzeptiert werden beim Tracking. Das ist Definitionssache, liegt also wieder in Deiner Hand. Wird diese Toleranz verlassen, geht es bei 1. weiter ;)
3. Ähnliches gilt für eine kontrastarme Aufnahme. Dass die Karte kontrastarm montiert oder ausgedruckt wird, können wir wohl ausschließen ^^ Schlechte Kamerasysteme gibt es aber genügend: gerade im VR Bereich wird heute gerne mit den Videokameras von Handys gearbeitet. Das ist ja einer der Einsatzbereiche: ich kann meinem Kunden live ein Möbel oder wie auch immer geartetes Objekt in einer beliebigen Umgebung zeigen. Und dafür sind Tablets und smarte Föne wie geschaffen. In dem Fall gilt wieder eine Toleranz (=> 1.). An den Grenzen zur Überschreitung dieser kann es z.B. zu heftigem Hin- und Herspringen der Objekte kommen, bevor sie einfach abgeschaltet werden.

Auch dieses Beispiel zeigt, dass eine exakte Planung notwendig und klar definierte Grenzen erforderlich sind, denn wenn plötzlich auf die dutzenden am Boden kreisenden 3D-Objekte ein Fuß hineinsteigt, wird die SW ganz schön ins Schwitzen kommen.
Die Software macht dann einfach garnichts, solange der Fuß die Karte nicht verdeckt. Sie projiziert lediglich die Objekte anhand der berechneten Positionen weiter auf die Videoaufnahme, und wenn da ein Fuß im Weg ist, werden die Objekte halt drüber gebügelt ;)
 
Zuletzt bearbeitet:
Die Software macht dann einfach garnichts, solange der Fuß die Karte nicht verdeckt
Sag´ ich ja, es muss eben genau geplant werden.
Warum sollte es einen Teil 2 dazu geben? Das will ja keiner sehen ^^
Weil der Film "Object Tracking Part 1" heißt, da erwartet man, bei Erfolg, einen Part 2. Ansonsten war es ein Pilotfilm und die Serie dann nie produziert. So geht`s beim TV eben zu.
und wenn da ein Fuß im Weg ist, werden die Objekte halt drüber gebügelt
Schön hast Du umschrieben, dass sie dann einfach Mist produziert.:D
 

KBB

Mod 3D | Blaubaer

Teammitglied
Sag´ ich ja, es muss eben genau geplant werden.
Eigentlich sagtest, oder vielmehr schriebst du:
Auch dieses Beispiel zeigt, dass eine exakte Planung notwendig und klar definierte Grenzen erforderlich sind, denn wenn plötzlich auf die dutzenden am Boden kreisenden 3D-Objekte ein Fuß hineinsteigt, wird die SW ganz schön ins Schwitzen kommen.
Wird sie nicht. Die Software kommt nicht ins schwitzen. Sie tut einfach garnichts. Und deshalb ist in diesem Fall auch nichts zu planen.
Ist aber alles irrelevant weil die Fragestellung nur scheinbar was mit dem Thema zu tun hat. Entweder greift das Tracking und erzeugt die korrekten Kameradaten, oder sie tut es nicht. Und das Beispiel im Tut ist viel enger mit VR verknüpft als mit dem Tracking, von dem ich sprach. Denn im Film werden solche Platten nicht benutzt. dafür sind sie sehr typisch für augmented Reality.

Weil der Film "Object Tracking Part 1" heißt, da erwartet man, bei Erfolg, einen Part 2.
Hier stand weiter oben
Leider konnte ich keinen Part 2 finden, wäre interessant gewesen zu sehen was passiert ...
Und auf diese zweite Hälfte des Satzes bezog ich mich denn auch: das möchte sonst niemand sehen oder produzieren. Oder anders gesagt, dazu bräuchte ich kein aufwändiges Tracking, um diese Fehler zu sehen oder (re)produzieren zu können. Das wäre verschwendete Lebenszeit. Das ist so, als würdest du Stunden lang Apfelkuchen backen um die Allergene oder meinetwegen auch schmackhafte Wirkung von frischen Äpfeln testen zu wollen. Aufwändig und am Thema vorbei.

Bei VR Anwendungen wärest du mit der Fragestellung besser aufgehoben, weil hier die Software halt irgendwie reagiert, ohne dass du großen Einfluss drauf hast. Das ist wie den Apfel gleich zu essen ^^

===============================

Edit, Nachtrag: Ah, jetzt.
Du meinst vielleicht, dass z.B. das Tracking an sich gut geplant werden müsse. In dem Fall hast Du sicher recht. Ich habe mich zu sehr von dem Tutorial ablenken lassen, denn das ist wie gesagt eher ein Beispiel für Augmented Reality mit der Karte als für "echtes" Tracking. Um die Kamerapositionen zu erlangen, würde man die gesamte Szene tracken, nicht einen winzigen Ausschnitt, der, wie Du schon andeutetest, auch mal verdeckt sein könnte. Im Alltag passiert genau das aber immer wieder, deshalb beschränkt man sich nicht auf solche Ausdrucke, die so speziell aussehen, weil sie von einer speziellen, aber eben für einen völlig anderen Zweck gedachten Tracking Software erkannt werden sollen. Trackt man für die Movies, nimmt man sich jeden (Kontrast)punkt, der da ist. Ist keiner da, werden welche aufgeklebt und später bei Bedarf auch wieder weg rotoskopiert. Die Punkte dürfen sogar ziemlich unscharf sein, solange sie ihre Charakteristik nicht verlieren. Deshalb ist der Kontrast fürs Tracking nicht so wichtig wie man vllt. denkt. Für den Film selbst hingegen schon ^^

Einfaches Beispiel: man fährt eine Straße entlang. Dabei verschwinden ständig Bereiche aus dem Bild, neue kommen ständig hinzu. Deshalb werden von der Software immer wieder neue Bereiche als relevant fürs Tracking angesehen und ausgewertet. So kann die Bewegung immer weiter gehen.

==========================

Ansonsten wäre vllt das hier was speziell für Dich, LowLight:

 
Zuletzt bearbeitet:

videl

3d Artist

Ich denke in den bisherigen Antworten wurde vielleicht die Bedeutung von Hardware Lösungen etwas überbewertet. Wenn du nicht gerade einen Film wie Avatar machen möchtest, dürftest du ohne Probleme mit Software Trackern sehr gute Resultate erzielen können. Die Bedingung für halbwegs gute Resultate sind natürlich dass die Szene genügend statische Geometrie hat, die auch einen gewissen Kontrast hat. Das dürfte für die meisten Outdoor Szenen gegeben sein (ausser z.b. auf dem Meer, da dürfte es eher schwierig werden wenn du nur Wasser im Frame hast).

Um vielleicht ein wenig auf dein Beispiel mit dem Auto einzugehen: Wenn du ein Auto in eine reale Szene einfügen möchtest. filmst du zuerst die reale Szene. Die Kamera darf sich dabei ruhig auch bewegen. Idealerweise achtest du darauf, dass der Platz wo das Auto stehen soll, möglichst frei bleibt. Ansonsten müsstest du zuerst Objekte entfernen, die an der Position des Autos sind (suche nach "compositing object removal" o.ä).
Danach trackst du deine Szene in der Software deiner Wahl. Dabei erhältst du eine virtuelle Kamera, welche die Bewegungen der echten Kamera nachvollzieht. Zusätzlich erhältst du normalerweise eine Menge von getrackten 3D Punkten in der Szene.

Diese getrackten Daten (Kamera Bewegung und 3d Punkte) exportierst du in deine 3D software (z.B. Maya). Dort platzierst du dein Auto wie gewünscht. Zusätzlich platzierst du beispielsweise eine ground plane, auf welche dein Auto Schatten werfen kann. Wichtig ist natürlich, dass deine virtuelle Szene eine möglichst ähnliche Beleuchtung zur realen Welt hat. Idealerweise nimmst du eine HDR environment map an der Stelle auf wo dein Auto stehen soll.

Wenn du dein Auto mit der korrekten Beleuchtung etc. aus der Sicht der getrackten Kamera gerendert hast, kannst du es direkt auf deine live action footage compositen. Falls zum Beispiel eine Person vor dem Auto steht und Teile des Autos verdeckt, musst du im Normalfall von Hand Person maskieren (Suchbegriff "rotoscoping"). Das würde wohl dem Beispiel mit dem Fuss entsprechen von LowLight.

An sich ist das Ganze kein besonders komplexer Prozess, vor allem da so viele gute Software gratis verfügbar ist. Eines der beliebtesten Compositing Programme in der Industrie wäre z.B. Nuke, von dem es auch eine nicht kommerzielle Version gibt (https://www.thefoundry.co.uk/products/non-commercial/). Nuke ist relative einfach zu bedienen (vor allem wenn du dir Blender gewöhnt bist :D), da Node basiert.

Wie gesagt, lass dich auf keinen Fall abschrecken von dem was in high-end Filmen gemacht wird. Man kann ohne Probleme als Einzelperson mit gratis verfügbarer Software was sehr Ansprechendes hinbekommen.
 
Bilder bitte hier hochladen und danach über das Bild-Icon (Direktlink vorher kopieren) platzieren.
Antworten auf deine Fragen:
Neues Thema erstellen

Willkommen auf PSD-Tutorials.de

In unseren Foren vernetzt du dich mit anderen Personen, um dich rund um die Themen Fotografie, Grafik, Gestaltung, Bildbearbeitung und 3D auszutauschen. Außerdem schalten wir für dich regelmäßig kostenlose Inhalte frei. Liebe Grüße senden dir die PSD-Gründer Stefan und Matthias Petri aus Waren an der Müritz. Hier erfährst du mehr über uns.

Stefan und Matthias Petri von PSD-Tutorials.de

Nächster neuer Gratisinhalt

03
Stunden
:
:
25
Minuten
:
:
19
Sekunden

Neueste Themen & Antworten

Flatrate für Tutorials, Assets, Vorlagen

Zurzeit aktive Besucher

Statistik des Forums

Themen
118.616
Beiträge
1.538.358
Mitglieder
67.536
Neuestes Mitglied
QuestionMark
Oben