Docendo discimus, sapere aude, incipe!
Danke, mondspeer, wenigstens einer, der's verstanden hat.
Beides, Blendenreihe und Belichtungszeitreihe gehen. Wenn die Belichtungszeit konstant bleiben soll, weil im Bild Bewegung ist, kann man die drei Aufnahmen (drei im Abstand von 2 Blenden reichen vollkommen aus, weil mehr als 16 Bit letztlich nicht mehr darstellbar sind) über die Blende steuern.
Vom gestalterischen Aspekt ist man mit der Belichtungsreihe (Zeit) besser dran, weil die Schärfentiefe sich nicht ändert.
Mal so ganz grundsätzlich:
Nichts, aber auch rein gar nichts, ist in der Fotografie vorgegeben. Alles, aber auch wirklich alles, liegt im Ermessen des Fotografen und der von ihm verfolgten Absicht.
Nur weil man die freie Wahl hat, an den Knöpfen und Reglern ganz nach Belieben zu drehen und einzustellen, was man möchte, heißt das noch lange nicht, dass das auch sinnvoll ist. Das hängt ja wohl immer noch sehr stark davon ab, was tatsächlich machbar ist, und egal was der Fotograf sich nun vorstellt oder erreichen will, auch er kann sich die Physik nicht unterordnen, ob es ihm nun paßt oder nicht.Beides, Blendenreihe und Belichtungszeitreihe gehen.
Mal so ganz grundsätzlich:
Nichts, aber auch rein gar nichts, ist in der Fotografie vorgegeben. Alles, aber auch wirklich alles, liegt im Ermessen des Fotografen und der von ihm verfolgten Absicht.
??? :uhm: Was hat das mit 16bit zu tun, was verstehst Du unter "nicht mehr darstellbar"?(drei im Abstand von 2 Blenden reichen vollkommen aus, weil mehr als 16 Bit letztlich nicht mehr darstellbar sind)
Out of my mind ...
??? :uhm: Was hat das mit 16bit zu tun, was verstehst Du unter "nicht mehr darstellbar"?
VG
Frank
Aktives Mitglied
Stimmt, ich hätte dich einschließen sollen. Allerdings steht der Satz weniger wegen euch beiden und den anderen da, die wissen wie es geht, sondern deshalb, weil nur mal gerade zwei Antworten wirklich so formuliert waren, dass der TO etwas damit anfangen kann und praktisch von allen (außer euch) ausgeschlossen wurde, dass es für HDR-Bilder noch andere Möglichkeiten bezogen auf das Machen der Ausgangsbilder gibt.Sorry, aber der erste Satz in Deinem Beitrag ist echt....unnötig!
Genaus das habe ich mit meinen Worten auf der Metaebene auch gesagt. Wir sind uns sicher einig daran, dass die Physik sich nicht umgehen lässt, dass aber im Rahmen der Möglichkeiten ebenso viele Weg zum Ziel führen, ohne sagen zu müssen: so muss man es machen. Dass es dabei auch Einschränkungen geben kann, die bestimmte Möglichkeiten ausschließen, hängt letztlich wieder von der Ausgangssituation und dem gewünschten Ergebnis ab.Nur weil man die freie Wahl hat, an den Knöpfen und Reglern ganz nach Belieben zu drehen und einzustellen, was man möchte, heißt das noch lange nicht, dass das auch sinnvoll ist. Das hängt ja wohl immer noch sehr stark davon ab, was tatsächlich machbar ist, und egal was der Fotograf sich nun vorstellt oder erreichen will, auch er kann sich die Physik nicht unterordnen, ob es ihm nun paßt oder nicht.
Unter bestimmten Bedingungen und dann auch nur stark eingeschränkt in der Anzahl der Belichtungen mag das so möglich sein.
Ich denke da einfach nur mal an Aufnahmesituationen, in denen eine große Schärfentiefe von Bedeutung ist, wo das Licht ohnehin schon knapp ist und die Dynamik trotzdem sehr viel mehr als nur +-1 oder 2 Zeit-Blendenstufen fordert. Blendenreihe ade...
Man könnte alternativ auch mit dem ISO Wert arbeiten oder/und einen variablen Graufilter verwenden, statt an der Blende rumzufummeln. Und auch wenn die Belichtungszeiten konstant kurz gehalten werden, kommt es zu einer zeitlich versetzten Überlagerung, daran ändert auch eine Blendenreihe nichts. Und wer mal versucht hat, eine Blendenreihe zu stitchen, naja...
Die zwei Blenden hoch und runter für ein HDR, die häufig in den Kameras per Firmware vorgegeben sind, hängen schlichtweg mit dem Dynamikumfang der aktuellen Sensoren und der Aufzeichung mit 12 bzw. bis zu 14 Bit zusammen. 12 Bit (eigentlich noch etwas darunter) sind aktuell die absolute Obergrenze, was die Abbildungsleistung der Sensoren angeht. Demnach bedeuten gesamt 4 Blenden, dass die Aufzeichnungstiefe auf 16 Bit erweitert wird. Die HDR-Software rechnet in der Regel sogar mit 32 Bit, bildete diese aber später wieder auf 16 Bit ab. Dumm natürlich, wenn danach nur in 8 Bit (JPG) statt 16 Bit (TIFF) gespeichert wird (oder anderen 16-Bit-Formaten).??? :uhm: Was hat das mit 16bit zu tun, was verstehst Du unter "nicht mehr darstellbar"?
Hier schließt dann auch die Möglichkeit der Tonwertspreizung an, wenn im Originalbild der Dynamikumfang schon recht gering ist. Das ist in der Regel bei "Dunkelfotografie" so, bei der dann auch mehr als 4 Blenden in der Summe sinnvoll sein können. Letztlich passiert das aber erst beim Rückabbilden des erweiterten Farbraumes auf das Zielformat. Und im Zielformat stehen nicht mehr als 16 Bit zu Verfügung, weil kein druckbarer Farbraum mehr Bit abbilden kann (eigentlich noch deutlich weniger, aber TIFF ist nicht umsonst schon vor PSD ein Standard in der Druckindustrie gewesen - stammt ja auch von Adobe).Jau, das sehe ich auch anders. Die Frage ist ja, ob der dunkelste Bereich noch Zeichnung hat und der hellste Bereich noch Zeichnung hat. Dazu brauche ich u.U. Ausgangsmaterial, dass sehr viel mehr als nur 5 Blendenstufen (oder Belichtungsstufen) Unterschied ausmacht.
bei mir is das so, dass wenn ich ich +1 einstelle auch eine -1 eingestellt wird, also macht er mir die bilder +1 0 -1 oder +2 0 -2
Docendo discimus, sapere aude, incipe!
Genaus das habe ich mit meinen Worten auf der Metaebene auch gesagt. Wir sind uns sicher einig daran, dass die Physik sich nicht umgehen lässt, dass aber im Rahmen der Möglichkeiten ebenso viele Weg zum Ziel führen, ohne sagen zu müssen: so muss man es machen. Dass es dabei auch Einschränkungen geben kann, die bestimmte Möglichkeiten ausschließen, hängt letztlich wieder von der Ausgangssituation und dem gewünschten Ergebnis ab.
Grundsätzlich kann man daher zwei Motive unterscheiden, bewegte und unbewegte. Wobei die Bewegungsgeschwindigkeit in Abhängigkeit der Winkelgeschwindigkeit zum Sensorelement steht. Solange das Objekt sich nicht mit mehr als der halben Winkelgeschwindigkeit eines Sensorelementes bewegt, kann es als fest gelten. Bewegt es sich hingegen während der Belichtungszeit über mehrere Sensorelemente hinweg, gilt es als bewegt und dann kommt es schlichtweg wieder auf die Bewegungsgeschwindigkeit an, ob man mit der Bildreihe noch etwas anfangen kann (das Motiv spielt wohl auch noch eine Rolle). - Probier doch spaßeshalber mal ein HDR aus Bewegtbildern, du wirst überrascht sein, was da alles mit ein bisschen ausprobieren möglich ist.
Die zwei Blenden hoch und runter für ein HDR, die häufig in den Kameras per Firmware vorgegeben sind, hängen schlichtweg mit dem Dynamikumfang der aktuellen Sensoren und der Aufzeichung mit 12 bzw. bis zu 14 Bit zusammen. 12 Bit (eigentlich noch etwas darunter) sind aktuell die absolute Obergrenze, was die Abbildungsleistung der Sensoren angeht. Demnach bedeuten gesamt 4 Blenden, dass die Aufzeichnungstiefe auf 16 Bit erweitert wird. Die HDR-Software rechnet in der Regel sogar mit 32 Bit, bildete diese aber später wieder auf 16 Bit ab. Dumm natürlich, wenn danach nur in 8 Bit (JPG) statt 16 Bit (TIFF) gespeichert wird (oder anderen 16-Bit-Formaten).
Jetzt sind wir allerdings in eine Fachdiskussion abgeglitten, bei der in diesem Thread wohl keiner mehr mitmachen wird.
Willkommen auf PSD-Tutorials.de
In unseren Foren vernetzt du dich mit anderen Personen, um dich rund um die Themen Fotografie, Grafik, Gestaltung, Bildbearbeitung und 3D auszutauschen. Außerdem schalten wir für dich regelmäßig kostenlose Inhalte frei. Liebe Grüße senden dir die PSD-Gründer Stefan und Matthias Petri aus Waren an der Müritz. Hier erfährst du mehr über uns.
Nächster neuer Gratisinhalt
Statistik des Forums