AW: Unterschied HDR mit RAW/Jpeg
Moin Leute,
Ich hab jetzt des öffteren gelesen das HDR Bilder mit Raw Bildern erstellt werden sollen da die Qualität besser ist.
Ist der Unterschied zwischen Raw und Jpeg HDR´s wirklich so unterschiedlich?
Kann mir jemand vieleicht mal eine gegenüberstellung der beiden arten zeigen damit ich den unterschied einmal sehe?
Danke schon mal im Vorraus
JPG = 8 Bit Farbtiefe
RAW = 12 bzw. 14 Bit Farbtiefe
Jede Blende, die mit einer Kamera mehr eingefangen werden kann, lässt eine feinere Abstufung der Farben zu. Mit 8 Bit (JPG-Format) kann ich 256 Abstufungen erzeugen, mit 10 Bit schon 1024 usw. mit 16 Bit (TIFF-Format) schon 65.536. Je feiner eine Farbe sich abstufen lässt, desto besser kann ich den Dynamikumfang eines Bildes wiedergeben.
Der Dynamikumfang einen heutigen Sensors beträgt etwas 10 Blenden. Er umfasst den Bereich zwischen reinem Schwarz und reinem Weiß, den eine Sensor gerade noch aufzeichnen kann.
Diese 10 Blenden werden nun in der Datei abgebildet, dabei wird die Anzahl der möglichen Farbabstufungen genutzt, bei JPG 8 Bit (=256 Abstufungen je Farbe), bei RAW 12 Bit (=4096 Abstufungen je Farbe). Damit kann der Dynamikumfang des Originalbildes in einer RAW-Datei mit mehr Farbabstufungen abgebildet werden, kommt dem Original also näher, als die JPG-Datei erlaubt. Natürlich muss das nicht immer so sein, denn der Dynamikumfang im Original kann ja auch mal so gering sein (wenn es wenig Helligkeitsunterschiede bzw. wenige Kontraste gibt), dass die 256 Abstufungen je Farbe bei JPG durchaus ausreichen - in der Regel eher nicht.
Ein HDR-Bild steigert nun den Dynamikumfang im Ausgangsbild durch eine Belichtungsreihe noch mal, in der Regel um +/- 2 Blenden, also insgesamt 4 Blenden. Jetzt beträgt der Dynamikumfang im Ausgangsbild schon 14 Blenden, die abgebildet werden müssen. Bei JPG habe ich nach wie vor nur 8 Bit zur Verfügung, bei RAW 12 bzw. 14 Bit und bei bei TIFF, einem weiteren Bildformat 16 Bit. Für HDR-Bilder nimmt man daher auch TIFF, um den Dynamikumfang von 14 Blenden mit möglichst vielen Farbabstufungen möglichst fein abgestuft abbilden zu können.
Ganz grob könnte man sagen, dass ich für jede Blende Dynamikumfang mind. 1 Bit im Dateiformat zur Abbildung haben sollte. Bei 10 Blenden sollten also auch mind. 10 Bit Farbtiefe zur Verfügung stehen. Mehr ist besser (RAW=12 bis 14 Bit), weniger schlechter (JPG=8 Bit).
Hier sollte schon klar werden, dass ein HDR-Bild aus mehreren RAW-Bildern erzeugt (3 reichen in der Regel vollkommen aus) mehr Farbabstufungen zulässt, als ein HDR-Bild auf Basis von gleich vielen JPG-Dateien, weil in den Ausgangsbildern der Dynamikumfang schon in mehr Farbabstufungen abgebildet wurde.
Ein Vergleich am Monitor ist allerdings nicht möglich, das dieser den Dynamikumfang eines HDR-Bilder nicht darstellen kann, egal ob aus JPG oder RAW generiert. Das ist ein grundsätzliches Problem vieler Ausgabemedien, die den vollen Dynamikumfang eines HDR-Bildes nicht 1:1 übernehmen können. Die Zahl der Farbabstufungen muss wieder runtergerechnet werden, was dann letztlich zu Aussagen führen kann, dass man eh keinen Unterschied sieht (da ist er auf jeden Fall, aber man sieht ihn eventuell nicht - je nach Ausgabemedium). Allerdings macht es einen Unterschied, ob man von Anfang an etwas weg lässt oder erst am Schluss etwas weg nimmt, was zwischendurch das Ergebnis positiv beeinflusst hat.
Dennoch gilt grundsätzlich, dass sich HDR-Bilder immer besser aus einer RAW-Datei entwickeln lassen, als aus einer JPG-Datei. Das Kriterium, dass JPG schon komprimiert ist, will ich dabei mal außer Acht lassen, es geht alleine um den Gesamtdynamikumfang der in der Datei abgebildet wurde und bei RAW deutlich größer ist.
Ein Vergleich mit Musik kann das verdeutlichen. Hört man aus dem Radio Musik (UKW), so wird fast die vollständige Bandbreite des menschlichen Gehörs übertragen (bis rund 20.000 Hz), die Musik hört sich gut an. Hört man Musik durchs Telefon, klingt sie reichlich bescheiden, da im Telefon nur Frequenzen bis 3.000 Hz übertragen werden. Große Teile des Dynamikumfangs des Musikstückes können durch das Telefon nicht übertragen werden, weshalb niemand Musik durchs Telefon hört.
Die Bandbreite reicht beim Telefon nicht, um den vollen Dynamikumfang (vom höchsten zum tiefsten Ton) zu übertragen. Ähnlich verhält es sich mit RAW und JPG. Im RAW steckt einfach mehr drin, jetzt muss ich nur noch ein geeignetes Ausgabemedium wählen, beispielsweise eine Offsetdruckmaschine. Ein Vergleich an einem herkömmlichen Bildschirm macht also gar keinen Sinn, da dieser mehr dem Telefon entspricht.
__________
Hier noch mal der Text, der vorher da stand. Unterm Strich wirklich keine Meisterleistung von mir. Da stand ich echt mal richtig daneben, als ich das schrieb;-) - ein paar Postings weiter hat roithinger mit für den jetzt nur noch unten stehenden Mist einen heftigen Schwinger verpasst, der nicht ohne Wirkung blieb;-(
JPG = 8 Bit Farbtiefe
RAW = 12 bzw. 14 Bit Farbtiefe
8 Bit entsprechen 8 Blenden, 12 Bit = 12 Blenden usw. Jede Blende, die mit einer Kamera mehr eingefangen werden kann, lässt eine feinere Abstufung der Farben zu. Mit 8 Bit (JPG-Format) kann ich 256 Abstufungen erzeugen, mit 10 Bit schon 1024 usw. mit 16 Bit (TIFF-Format) schon 65.536. Je feiner eine Farbe sich abstufen lässt, desto mehr Dynamik habe ich im Bild. RAW ist also JPG schon mal grundsätzlich bezüglich der Abstufungen je Farbe überlegen.
Ein HDR-Bild steigert nun die Zahl der Abstufungen durch eine Belichtungsreihe noch mal, in der Regel um +/- 2 Blenden, also insgesamt 4 Bit (=4 Blenden). Geht man vom JPG aus, kommt man auf 12 Bit und von RAW ausgehend auf 16 Bit (18 Bit lässt sich aktuell nicht mit gängigen Bildformaten speichern; TIFF kann beispielsweise nur 16 Bit speichern).
Hier sollte schon klar werden, dass ein HDR-Bild aus mehreren RAW-Bildern erzeugt (3 reichen in der Regel vollkommen aus) mehr Farbabstufungen zulässt, als ein HDR-Bild auf Basis von gleich vielen JPG-Dateien.
Ein Vergleich am Monitor ist allerdings nicht möglich, das dieser den Dynamikumfang eines HDR-Bilder nicht darstellen kann, egal ob aus JPG oder RAW generiert. Das ist ein grundsätzliches Problem vieler Ausgabemedien, die den vollen Dynamikumfang eines HDR-Bildes nicht 1:1 übernehmen können. Die Zahl der Farbabstufungen muss wieder runtergerechnet werden, was dann letztlich zu Aussagen führen kann, dass man eh keinen Unterschied sieht (da ist er auf jeden Fall, aber man sieht ihn eventuell nicht - je nach Ausgabemedium).
Dennoch gilt grundsätzlich, dass sich HDR-Bilder immer besser aus einer RAW-Datei entwickeln lassen, als aus einer JPG-Datei. Das Kriterium, dass JPG schon komprimiert ist, will ich dabei mal außer Acht lassen, es geht alleine um den Gesamtdynamikumfang der zur Verfügung steht und bei RAW deutlich größer ist.
Ein Vergleich mit Musik kann das verdeutlichen. Hört man aus dem Radio Musik (UKW), so wird fast die vollständige Bandbreite des menschlichen Gehörs übertragen (bis rund 20.000 Hz), die Musik hört sich gut an. Hört man Musik durch Telefon, klingt sie reichlich bescheiden, da im Telefon nur Frequenzen bis 3.000 Hz übertragen werden. Große Teile des Dynamikumfangs des Musikstückes können durch das Telefon nicht übertragen werden, weshalb niemand Musik durchs Telefon hört.
Die Bandbreite reicht beim Telefon nicht, um den vollen Dynamikumfang (vom höchsten zum tiefsten Ton) zu übertragen. Ähnlich verhält es sich mit RAW und JPG. Im RAW steckt einfach mehr drin, jetzt muss ich nur noch ein geeignetes Ausgabemedium wählen, beispielsweise eine Offsetdruckmaschine. Ein Vergleich an einem herkömmlichen Bildschirm macht also gar keinen Sinn, da dieser mehr dem Telefon entspricht.