Socrates boson wrote:
不如你來說說你認為的...(恕刪)
放心
我不認為你是搞錯名詞解釋那個



Socrates boson wrote:
誰說只能8EV?數位...(恕刪)
),DxOmark所提到的動態範圍是A/D Quantization下的動態範圍,就跟16bits A/D記錄音頻動態範圍96dB一樣,Quantization error, dithering,Nyquist frequencty,都是數位取樣(A/D)的東西,沒有人在討論這些東西時把場景(Analog)跟喇叭/螢幕(D/A)的動態範圍一起攪和進來,這是3個分開的系統。三種動態範圍怎麼會混在一起?這是大多數(尤其是沒有接觸取樣原理)人最容易產生的盲點,抱歉,這超過我的能力範圍了,如果要同時討論螢幕(D/A)跟場景(A)動態請便,我已經解釋完我的部份了(A/D)
OASYS wrote:
一個照片色階紀錄跨越32cd/m^2跟螢幕的顯示能力沒有關,而是在紀錄場景時就造成嚴重的色階斷層,就跟你把圖檔降成2-bits一樣造成斷階,然後再把這些資訊分進256色階(例如jpg),一般螢幕本來就可以顯示,不覺得這種色階切分跟對應的邏輯非常奇怪嗎?
一開始根本沒有人提到螢幕對比動態以及場景動態,我不曉得到底是怎麼歪到那裡去的(然後莫名其妙被人開一槍)
OASYS wrote:
DxOmark所提到的動態範圍是A/D Quantization下的動態範圍,就跟16bits A/D記錄音頻動態範圍96dB一樣,Quantization error, dithering,Nyquist frequencty,都是數位取樣的東西,沒有人在討論這些東西時把場景(Analog)跟喇叭(螢幕D/A)的動態範圍一起攪和進來。三種動態範圍怎麼會混在一起?抱歉,這超過我的能力範圍了,如果要同時討論螢幕跟場景動態請便,我已經解釋完我的部份了(A/D)
OASYS wrote:
PS.對於這個討論串的其他人,不好意思~只能「幫」到這兒了,希望大家可以從裏面找到對自己有用的資訊。