畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

瑪爾Gy wrote:
在相機版混久的都知道 片幅先決。m4/3的相機,同畫素下畫質再怎麼樣也贏不了APSC。理由很簡單,如果你用m4/3畫質能做到跟APSC一樣,那麼同樣的技術用到APSC,畫質還是又超越了m4/3。同理APSC也贏不了FF。


片幅其實決定了另外一個更重要的因素, 也是拍照的人更在意的: 景深.

透視感雖然可以隨焦長轉換, 但景深只由焦距決定, 因此在比較不同的攝影系統時, 這是一個很好的參考基準. 100mm 的鏡頭不管在 35mm 全幅, APS-C, 還是 1/6 吋的手機上, 它的景深都是差不多的. 但是 100mm 的鏡頭在這三者之間的表現是完全不一樣的, 以 1/6 吋的手機來說, 應該是不可能有 100mm 的鏡頭實作, 就算你真的做出來, 它的等效焦距也會長到不堪使用的地步.

這就是為什麼即使到了數位時帶, 120 片幅甚至是更大的光學底片系統仍然在某些專業領域中佔有一席之地的原因. Pixel size 只是其中一個因素, 而片幅是另一個更重要的因素.

手的的小尺寸 sensor 就算可以拍出純淨無暇極低 noise 媲美全幅的照片, 它就是沒有淺景深. 即使光圈已經大到 f/2 也一樣啊...

birdlg wrote:
資訊理論上有所謂 e...(恕刪)


你的文章很讚! 科技真的越來越進步, 解決問題的方法也不只一種. 背照式SENSOR就是一例.

不過我想請教你文中說的
birdlg wrote:
2.3um 是很大的 pixel. 現在手機的 pixel size 都是 1.4um, 1.2um, 1.15um 這種級數的, 而且有些衝得快的已經做到 1um 以下了. 再小下去, 也許 IR cut filter 就不用加了

這是說 1um 波長的光就進不去, 那在以Bayer sensor的2x2 element. 那是不是該改為2um pixel就進不去1um的element. 那是不是現在就不用加了?

Haily wrote:
這是說 1um 波長的光就進不去, 那在以Bayer sensor的2x2 element. 那是不是該改為2um pixel就進不去1um的element. 那是不是現在就不用加了?




唉.. 這其實是語彙的混淆. 樓主認為 sensor 中的感光單元叫做 element, 2x2 的 element 才能叫做 pixel, 但我個人其實不是很喜歡這樣的叫法, 因為實務上沒有人這樣說. Pixel 就是 pixel, 你去看各家 sensor 的原廠文件, pixel size 1.1um 指的就是最小感光單元的 pitch 是 1.1um, 並無 element 之說.

總之, 我所謂 1.1um 的 pixel size, 指的就是 Bayer sensor 上最小的感光單元的 size.



不過談到 IR 的光譜, 就要提一下 pixel layout. 決定一個 pixel 可以感應到的最大波長, 主要的因速其實不是 pixel size, 而是一個 pixel 裡 photo diode 的最大邊長, 這是因為光是橫波, 你要感應它, 天線至少要能容納一個完整的波長. 1.1um 的 pixel, 它裡面能做到的 photo diode 一定比 1.1um 要小, 因為有邊邊有框框有其它電路, 有牆有界碑可能還有其它電路要抽成. 而且實務上, pixel 裡的畫素電路 (就是常聽到那些幾 T 幾 T 的電路) 只佔 pixel 面積的極小一部份, 所以 photo diode 多半不是矩形的, 而比較像是矩形缺一個角, 或是 L 形. 這種 layout 也會對 photo diode 能感應的最大波長造成一些複雜的影響, 甚至對 micro lens 的設計造成一些困擾.

因為矽的 band gap 使然, 矽做成的 photo diode 可以感應的最大波長大概在 1100nm 上下, 這是個物理上的巧合, 並非我們做出來的. 上帝對我們實在很好, 如果矽的 band gap 不是剛好落在 1.1eV 附近, 可見光的光子就沒辦法在矽半導體的接面上打出電子電洞對, 我們就沒辦法用人類最成熟最好的半導體技術來做光感測器 (還是有其它材料可以用).

可見光光譜的長波長尾端落在 700nm 附近, 而 silicon photo diode 可以感應到 1100nm 左右, 所以 IR cut filter 要擋的就是 700nm 到1100nm 這一段, 以防止這一段的近紅外線穿透彩色濾光片, 對三色的 pixel 都造成感光, 降低色彩的鑑別力. 比 1100nm 要長的紅外線因為它的光子能量小於矽的能隙, 所以打不出電子電洞對, 對矽半導體來說就可以忽略.

因此, 如果要讓 pixel size 小到可以不裝 IR cut filter, 大概要小到 0.8um 左右, 但很顯然的這也會影響一部份的紅光感度. 我知道有些 sensor 廠已經在朝這個方向努力, 比如說 0.9um 的 pixel size, 它需要的 IR cut filter 就不用管 900nm 到 1100nm 這一段的光譜了.

講到紅外線, 就順帶一提, 電影中常見的紅外線熱像儀或是夜視鏡, 它感應的光譜其實不是矽半導體所能感應的這一段紅外線. 如果是的話, 監視系統的夜視模式就不需要另外用 IR LED 打光了. 熱成像用的是波長更長的遠紅外線, 大概在十幾 um 左右. 這個波長的紅外線是室溫的黑體輻射波長, 所以可以用完全被動的方法 (不需要另外投光) 取得影像, 也就是熱影像. 它有兩個門檻: 一個是材料, 要能感應這麼長波長紅外線的半導體, 它的能隙要很低, 低到波長這麼長, 光子能量這麼虛的遠紅外線也能打出電子電洞對, 幸好我們已經知道很多三五族的半導體材料可以做到這一點. 另一個就是前面講的 pixel size 跟波長的關係. 當然實務上還有冷卻的問題, 所以也有一些室溫用的熱像 sensor 並非使用光電效應在感測, 而是使用焦電效應或是鐵電效應, 這個講下去又可以蓋一棟 101 了.

birdlg wrote:

可見光光譜的長波長尾端落在 700nm 附近, 而 silicon photo diode 可以感應到 1100nm 左右, 所以 IR cut filter 要擋的就是 700nm 到1100nm 這一段, 以防止這一段的近紅外線穿透彩色濾光片, 對三色的 pixel 都造成感光, 降低色彩的鑑別力.」




老師, 我有問題:

為什麼「silicon photo diode 可以感應到 1100nm 左右」,

還要檔「700nm 到1100nm 這一段」?

感應不到還要檔是因為?




PS. 你也是有實務經驗的真高人, 願意用簡易的文字來解說現有的影像科技, 很開心能跟到這樓....
同畫素之下
X3 的細節比 bayer 出色許多, 這說明什麼?

DP只有所謂的真實4百多萬畫素,片幅比APSC更小,畫質細節卻比一般APSC單眼更好。

DPM 約 1533萬畫素(多少還是有減損)
D800是3600萬畫素。bayer 像素如果每一點得到的都接近真實的話
那麼每一點應該都可以跟DPM的每一點相媲美 (那DP系列也不要X3計算啦)
那麼D800解像力應該遠遠超過於DPM,應該是接近二倍 ,然而實際DPM的解像力比D800好

別忘記DPM片幅約是接近APSC,還遠比D800為小
我誰呀,我瑪爾Gy耶!
birdlg wrote:
片幅其實決定了另外一個更重要的因素, 也是拍照的人更在意的: 景深....(恕刪)

景深可以由光圈跟鏡頭焦長來改變
在APSC以上的片幅,都可以獲得很淺的景深

透視感很重要沒錯,但這些在同片幅的相機中,是相當的。
而且遠方的整片風景,不同片幅其透視感(景深)的差異,就會很小

因此除了你說的景深、透視感
高檔大片幅相機可以容納較多的總畫素並維持較低的畫素密度,主要是降低干擾、提高色彩準確度 解像力 以獲得更寫真的畫質
許多景色要表現得好,需要非常好的解像力的感光元件跟鏡頭(比如還原當時的薄霧感、空氣感、細微的光影色彩等)
這些細節在畫素密度高的感光元件中,很容易就會因跟雜訊或干擾分不清而被抹去或混淆
因此對於重視這些細節的相機來說,只有干擾的程度不影響這些細節的情況下,才會提高畫素。這時提高畫素才會帶來更好的細節。
我誰呀,我瑪爾Gy耶!
瑪爾Gy wrote:
DPM 約 1533萬畫素(多少還是有減損)
D800是3600萬畫素。bayer 像素如果每一點得到的都接近真實的話
那麼每一點應該都可以跟DPM的每一點相媲美 (那DP系列也不要X3計算啦)
那麼D800解像力應該遠遠超過於DPM,應該是接近二倍 ,然而實際DPM的細節甚至比D800好
...(恕刪)

提醒一個盲點:除了用來取樣的畫素數量,你還要考慮每個畫素的取樣bit數......

D800/D800E取樣到的資訊是~3600萬組,DP2M取樣到的資訊是~4500萬組;以每組資訊的取樣bit數來說,D800/D800E是14-bit,DP2M是12-bit,根據這些資訊,就可以大約計算出uncompressed的RAW檔的大小。D800/D800E取樣到的資訊組數較少,但每個樣本的取樣bit數較高,其RAW檔較大(已去除unpacked儲存方式的因素)。

以空間的亮度資訊的取樣數量來說,D800/D800E較多(3600萬組),但空間的色彩資訊取樣數量較低(3600萬組),而每個畫素的取樣bit數拉高,針對真實世界的影像是以continuous tone居大多數的特性,提高空間的color prediction的準確度,但碰到高頻的顏色細節,會有其侷限。

以空間的色彩資訊取樣數量,DP2M較多(4500萬組),但每個畫素的最高取樣bit數較D800/D800E低,且空間的亮度資訊取樣數量少於D800/D800E(1500萬組),另外就是高ISO的noise。

大樓慢慢變成Bayer vs. Foveon X3了,離HTC的Ultrapixel越來越遠.....
旅行中,只有手機無法打太多字,但很興奮,我提供的引子,竟引來許多真正的專家,參加討論。

尤其是birdlg的發文真是專業精確又易懂。希望他能繼續多貢獻寶貴學識。
有人擔心討論方向,我倒是不怕,因為我們是來交換資訊跟論點的,不是要替任何科技或廠商背書。看到Bayer已被如此深入討論,看官在過濾情緒用語後應覺得它已沒那麼陌生了。


接下來我想再投入有趣的方向供大家茶餘飯後聊聊。
假想人類沒有發明彩色電視,手機。
請你假想彩色CMOS,Bayer上的濾光膜被洗掉了,現在它每個photo cell 只能分辨亮度,

這時我們用分辨力只有100萬點的光學鏡頭來成像,也就是最小光束比4個 cell還粗。
這時雖然每個cell都可輸出獨立輝度資料。但因相臨4顆cell提供之資料是如此相似,人眼是否只感覺到約100萬,或只稍多些之細節。

如果逐步換上解析力更好的鏡頭,光束終於接近使每cell能輸出完全不同之輝度資料
這時我們是否開始看到更多的獨立輝度資訊,直到開始出現牛頓環,
因為有些光束已經打歪沒有正著cell中心,開始產生空間拍差。

如果我們再將鏡頭昇級,使它能產生1600萬個點,這時也許會有400萬光束打中cell
另有1200萬點打在兩個cell中間,左右上下各有邊緣光打到cell上。

請問我們能否用運算,推出算出中間這道光的亮度。

這個經過插補的影像,果然精緻得多,缺角都被中間灰色補足,銳利感也變好了,所以我們是可以由400萬cell之 CMOS取出400~1600萬點有意義的黑白畫素嗎?數學家能否發明演算法,將中間以各種灰度補足,做出1600萬點 RAW 輸出。

如果換上解析度很差的鏡頭,每9個cell只能共享光束,又會怎

如果影像不是高頻方波清析光點,而是連續由亮而暗再由暗而亮的以三角波或正弦波或正弦平方波的函數變化呢? 又會怎樣。

做為設計師,你會開出何種量產用光學鏡頭,來給這個黑白CMOS用。
bv2fb wrote:
旅行中,只有手機無法...(恕刪)


樓主能不能先理解Bayer設計的原理與物理意義再說!
我先問你, 如果你是色盲, 你看得出哪四個element組成一個pixel嗎?
否則為何你有執念一定要哪四個element框成pixel
我在把之前的再貼一次給你看, 怕你沒看到


什麼是差補, 你應該就是指純軟體的中間差補up scale. 這是純數學的.
可是Bayer不是, 是具有實質物理意義的, 而且適用於Bayer pattern.
也因為1 pixel = 2 x 2 element所以變四倍的畫數.
我先貼出國外原文解釋, 這個相當簡單易懂, 還有動畫.
http://photo.stackexchange.com/questions/9738/why-are-effective-pixels-greater-than-the-actual-resolution


原本的element以四個四個框起來
他突破了你遠本認為每四個只能非重疊框起來, 每一個pixel都有RGBG只是排列的方式不同, 每一個pixel也都是2x2, 符合樓主說的一道光束分成四道的條件.

上面的圖看不懂? 沒關係有動畫版

其中9號點是插在1,2之間以此類推

一定有一堆人跟著問: 中間9號那點不就是(1號+2號)/2
你只要這樣想當白光打在9號上Y9=100%, 因為1號,2號只有一半照到, 此時Y1=50%, Y2=50%,
(Y1+Y2)/2 = 50% 不等於Y9.
Haily wrote:
樓主能不能先理解Ba...(恕刪)

看起來好像是每一組都可以得到一個正確的顏色資訊
總覺得好像有點怪怪的,但說不出來是哪裏有問題...
會不會這就是同畫素細節不如x3的原因..

「當白光打在9號上Y9=100%, 因為1號,2號只有一半照到, 此時Y1=50%, Y2=50%,
(Y1+Y2)/2 = 50% 不等於Y9.」

那如果1是黃 2是藍 ,那9 ?
我誰呀,我瑪爾Gy耶!
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 77)

今日熱門文章 網友點擊推薦!