h7878220 wrote:有錯嗎?wiki...(恕刪) 有錯LCD3個(RGB)或4個(RGBW)sub pixels合成一個肉眼可見的色彩, 這樣為一個pixelImage SensorCMOS"只能偵測輝度", 如果沒有color filter, 那拍起來的照片全部都是灰白的, 但如此解像力可以達到最高不過為了顯示彩色圖片, 需要color filter把不同pixels畫分成負責R或G或B的單元, 然後再參考鄰近的pixels的資訊, 去馬賽克後得到近似的色彩色彩的呈現必須參考鄰近pixel的像素得到的數據舉例來說, 負責Blue的某個像素若有收到訊號, 如果周遭像素也有收到訊號, 那麼就參考收到的量, 計算還原出來的色彩是什麼那麼問題就來了, 如果光點小過一個像素, 導致周遭像素都沒有可參考計算顏色的訊號, 那麼算出來的顏色就是錯的舉例來說, 一個黃色光點打到一個負責Red的像素上, 而光點直徑小於一個像素, 那麼相機會判斷此光為"紅色"而還原出紅色的訊號, 這明顯不是我們要的不是嗎? 所以就會需要low pass filter, 務必確保最小光點不會小於一個像素, 譬如說這個黃色光點通過low pass filter後, 被放大成約4個像素的大小, 除了打在red上, 也打在green跟blue上, 那麼相機就可以針對green與blue上收到的光訊號來判斷打中red像素的光並不是紅光, 而根據比例算出正確的顏色因此bayer filter的相機無法達到per pixel的解像力, 即使cancel low pass filter也依然會有類似的問題而沒辦法達到1:1的解像力通常使用bayer filter的image sensor, 對色彩的解像力只有image sensor原始解析度的1/4像foveon x3這種把color filter縱向堆疊排列的設計, 才能做到per pixel等級的解像力
h7878220 wrote:你自己去看一遍你在...(恕刪) 總覺得你還是沒理解, 一直把LCD跟Image sensor想成都有sub pixels在一個pixel裡面, 事實上後者跟本沒有啊48樓跟52樓講的東西都一樣bayer filter CMOS sensor就是要用旁邊像素的數據才能算出正確的色彩要讓旁邊的像素的數據能有參考價值, 那就得讓旁邊的pixels也能收到光, 也就是讓此模糊圓大小能涵蓋到數個pixels所以才要用"low pass filter"把模糊圓加大, 而無法只靠單一pixel就判斷出正確色彩文字苦手的話, 看圖總能懂吧?Canon原廠圖都這麼畫了, R-G-B-G各對應一個pixel而不是四個color擠在一個pixel上面(此圖有兩個pixel是因為這張7D2是dual pixel設計, 作用是來當相位對焦而不是為了提升解析度)講過的不想再一直講了, 沒有求知慾望的人再怎麼講也聽不進去, 不懂便罷
meridian wrote:上述網頁的MTF, 基本上只要30lp/mm大於0.5, 就足以應付5MP的解析度需求, 這差不多是Canon 6D的1/4划素但要記得, 相機的color filter也是GRGB四個划素才能運算出一個真實顏色, 所以對於色彩的解像力來說, 實用划素只有全划素的1/4而已 人眼對於明度的感受力高於彩度的分辨力,而且MTF測試中的黑白線條,並不需要檢驗色彩,每一個RGBG畫素都能拿來用,所以把解像力算成1/4是有些過頭了。
h7878220 wrote:這樣算法是錯的5DsR...(恕刪) 小弟不才小弟印象中每個單色的感光sensor好像會和周圍八個單色感光sensor匹配去計算顏色但是顏色仍是取相鄰4個單色感光sensor來計算顏色印象中單一pixel顏色應不是"固定"的"相鄰4個單色感光sensor"得出所以單一單色sensor可能會用在計算超過一個pixel上(所以100%下的輪廓分明度,同樣是apsc,一般單眼相機就遠不如x3感光元件)好像也是這原因會造成偽色效應不太清楚或許我講的也是錯的請各前輩不吝補充與指正!