@Godsha
Ich bin von der Geschichte mit den Blendenstufen bezüglich der Erklärung von Dynamikumfang nicht so begeistert, auch wenn man das an vielen Stellen im Netz so zu lesen bekommt. Das Thema ist weit komplexer und lässt sich nicht so trivial herunterbrechen.
Außerdem teilt sich das mit dem 'Dynamikumfang' in mehrere relevante Bereiche auf, zum einen ist da mal der reale 'Dynamikumfang' der Szene, dann der Bereich, den der Sensor erfassen/aufzeichnen/verarbeiten kann und dann wäre da noch die Sache mit dem 'Dynamikumfang' des Wiedergabemediums. Da gibt es krasse Unterschiede, das lässt sich nicht einfach über einen Kamm scheren!
Auch macht es wenig Sinn, das menschliche Auge, oder besser gesagt: den menschlichen Sehapparat, mit der Funktionalität einer Kamera 1:1 zu vergleichen und da Dinge abzuleiten.
Dann wäre da noch die Signalaufbereitung der aufgezeichneten Sensordaten, auch da wird bereits in vielfältiger Weise z.T. sehr viel Einfluß auf das genommen (auch am 'RAW'), was wir dann am Ende als Bild zu sehen bekommen (dabei orientieren sich die Algorithmen und angewandten Kennlinien oftmals an unseren Sehfähigkeiten).
Eine Szene (lichttechnisch) vollständig korrekt zu belichten, die die Möglichkeiten des Sensors übersteigt, ist schlichtweg mit einer Einzelaufnahme nicht möglich. Man wird sich dann entscheiden müssen, welchen Teil des Motivs man 'richtig' belichten möchte und welche Bildbereiche dafür quasi geopfert werden müssen. Natürlich kann man nachträglich per Software versuchen, an den Tonwerten herumzuzupfen, aber was dem Clipping zum Opfer gefallen ist, ist weg und kann bestenfalls noch über Reste (Textur) aus anderen Farbkanälen rekonstruiert werden, aber das ist ein anderes Thema.
Auch bekommt man keine korrekte Anzeige von der Kamera, was die korrekte Belichtung angeht. Weder das Histogramm noch sonst irgendeine Anzeige bei der Bildkontrolle gibt verläßlich darüber Auskunft, wie weit die Sensorzellen
tatsächlich in die Sättigung gefahren wurden. Es gibt da die Möglichkeit, eine wirklich lineare und zudem
nicht gammakorrigierte Kennlinie in der Kamera zu nutzen und zusätzlich den Weißabgleich zu eliminieren, in dem man eine sog. Uni-WB Datei in der Kamera nutzt, welche die Multiplikatoren für die einzelnen Farbkanäle quasi nivelliert. Das ergibt dann eine sehr viel realistischere Darstellung (Histogramm). Aber diesen Aufwand, gepaart mit einer wenig ansehnlichen Bilddarstellung, wird kaum jemand freiwillig treiben wollen.
Was bleibt, ist, die eigene Kamera möglichst gut zu kennen, so dass man in etwa weiß, welchen Spielraum man bezogen auf das Histogramm noch haben mag. Unnötig unterbelichten ist dabei wenig sinnvoll, da man zum einen den wichtigen Signalrauschabstand unnötig verschlechtert und zum anderen, weil die gewonnenen Tonwerte 'in der hellsten Blendenstufe' rund 50% aller aufzeichenbarer Tonwerte ausmachen (Stichwort: 'ETTR' -> Expose To The Right), da die Sensoren das Licht linear aufzeichnen. Das alleine wäre noch nicht einmal sooo dramatisch, aber mit jeder 'kleineren Blendenstufe' halbiert sich die Anzahl der Tonwerte, so dass es in der untersten Stufe quasi um jeden einzelnen Tonwert geht. Das ist ganz besonders deshalb so wichtig, weil man ja gerne mal versucht ist, die Schatten nachträglich aufhellen zu wollen und dann hat man ganz schnell Rauschen und Tonwertabrisse.
Das Thema 'isoless Sensor' fange ich lieber erst gar nicht an ...
Man muß das auch alles nicht so technisch betrachten, nur im Hinterkopf behalten, und dann klappt das mit den Bildern schon alleine aus der Erfahrung heraus. Trial&Error waren schon immer gute Lehrer, vielleicht sollte man sich wieder öfter erlauben, Fehler zu machen, aus denen man dann lernen kann ...
Mit liebem Gruß
Frank