沒用過全幅,求指教。不看高感,A7和EM1直出的寬容度差距大麽? raw呢?
Ken Rockwell on Dynamic Range
雖然說直接利用jpg進行後製也是可行,如果jpg照片對比與飽和度高,則代表喪失的色階愈多,愈不利後製(調整照片亮度或修正白平衡),斷階也愈容易產生,因此低對比的jpg檔對後製才稍稍比較有利,而就還原超過8EV動態的細節能力而言,都是0,同時,還是由測光過程決定暗亮部細節呈現的品質,任何相機輸出的jpg都一樣喔。
M43親子與生活紀錄: https://www.facebook.com/M43Happiness
wuwaiter wrote:
請問一下OASYS大...(恕刪)
沒錯~因為jpg的R/G/B只能呈現256色階(0~255),因此即使Raw能紀錄更多色階(例如12-bits 4096色階),轉到jpg時也還是不多不少只有256色階。
白話一點解釋,以jpg的灰階為例(這邊假設是線性,但其實jpg已經包含gamma encoding,同時也暫時不考慮jpg的破壞性壓縮):
R(255)/G(255)/B(255)是白色,降低一半亮度(-1EV)就是R(127)/G(127)/B(127),再降一半亮度(-2EV),就是R(63)/G(63)/B(63)...以此類推,最多到-8EV(0/0/0),這就是一般相機輸出jpg的限制。
如果要保留亮部,通常就會犧牲暗部,保留暗部,則容易犧牲亮部,兩者都保留(例如HDR這個容易讓人誤會的名詞,那跟Tone mapping後製有關,不是線性,不屬於感光元件範疇),並不代表動態好,只是犧牲中間階調而已,不多不少,就是只有256色階可以使用,這就是所有數位相機的限制。因此感光元件A比感光元件B好,完全不等於照片A比照片B好,因為再大的影像資料最後還是得塞到相對而言規格小很多的檔案格式裡,影像品質其實是取決於拍攝者的測光與採用的後製方式。
補充: DxOmark關於A/D converter與EV之間計算方式在此,有興趣的人參考看看吧!注意DxOmark是以sensor的noise standard deviation來做計算的,沒有normalize成1,因此最小的訊號的平均是有可能小於1bit,跟上面說的單一Pixel Quantization是不太一樣的,純粹是DxOmark量化整個sensor pixel表現的方式不同,還有提到"-"EV(減)就表示跟Exposure Value(曝光值)是不同的,可參考這邊的討論。
能解釋的都解釋了,Good luck~
M43親子與生活紀錄: https://www.facebook.com/M43Happiness


























































































