畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

HTC但這次大膽嘗試新像機概念,將CMOS影像感應器之面積升為 1/3吋,畫素降為 400萬。
行動大膽, 這種 PM 決策到底是對是錯。消費者要如何從眾多似是而非的雜訊中取得正確的資訊以供判斷。


畫素的迷思,

人眼到底需要多少畫素才能感覺舒服。
一個人那樣高的超級漂亮海報燈箱,它的原圖很少含有超過 100萬真實畫素。經過三色或七色分色噴印後也是只有1000~3000 萬個畫元 (color Sub-pixel)。
那在 1920X1080 27吋螢幕,及 3~5 吋小液晶螢幕上需要多少真實畫素。才能感覺清晰。

下面這張圖只有600X400= 24萬畫素,是 400萬的 16分之1
請按 CTRL+滑鼠滾輪 將他縮為4.7吋對角線 (就是你食指到拇指端長度)
看看夠不構精細。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇


一個畫面的品質主要是由 解析度、對比動態、色飽和、訊噪比....... 決定。

解析度 : 主要是由CMOS畫素及玻璃鏡片品質決定。
對比動態: 主要是由 CMOS 每個畫元面積加上製程能力決定。
色飽和 : 主要是由CMOS 濾光膜及玻璃鏡片品質決定
訊噪比 : 除上述外 CDS AGC-AMP DSP 室溫 電磁干擾及所有電子元件都有關系。

其中則以動態比對畫質影響最大。
有人說沒有解析度,動態有何用? 其實解析度也是一種小區域動態比。
以現在的主流手機大小厚度,1/3吋CMOS 相機幾乎是極限尺寸,1/2吋或更大之CMOS雖更好,但很難塞入,火山口會很大。 1/4吋體積雖小但會損失動態 33%,所以可能會被漸漸放棄。


甚麼是動態

舉起你的手機、小相機、拍一下路邊紅綠燈及小綠人,疑!! 怎麼變成小白人,紅綠燈怎麼變成 白、白燈加紅綠框。相機壞了嗎? 回家換價值15萬元的高級單眼相機 D-800 加高級鏡頭 24-70mm F2.8 再照一次,噯! 怎麼還是一樣,縮小光圈再照一次,還是一樣,再縮小光圈看看..................
這就是動態不足,因為 CMOS 上的三色資訊已全部飽和而無法分出顏色。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇 畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇



人眼之桿狀體 等效ISO感度約在 800~1600 左右, 錐狀體等效 ISO感度約在100~200左右,因人而異。又因網膜上面的感光化學成分可以在30~180秒鐘替換成另一組藥水,所以在暗處一段時間後,ISO 感度會再提高,但是色分辨力會大幅降低。(所以很多夢是黑白的可能是因為比較省電、省記憶體。)

人眼之瞳孔光圈一說是約在 F=1:1~1:8 左右,也有一說是 F1:8~1:11 它是用人肉做的自動光圈。
在一般生活範圍應可以假設約在 F=1:8 附近

網膜底片之動態比因種族而異,有一說是 1,000,000:1 但我認為可能高估了,那可能是含瞳孔自動光圈,加大腦 HDR 多張影像組合計算後的 動態-動態比。

人眼如果瞳孔不縮放,眼睛不亂動,只看一次,不用大腦做動態 HDR 影像組合,其動態應在 1000:1 ~3000:1 附近。

那相片、海報燈箱、螢幕要做到多少對比才能使人眼感到愉快呢?

實測結果是要 50:1 以上的動態才能使麻瓜的眼睛覺得可以接受,要 100:1 以上動態才能使經過訓練的眼睛覺得好看。但是既然人眼的本質動態可達 1000:1 以上。那麼它的視覺經驗是可以訓練的,一旦大家都看到過動態好的像片,就回不去了。當人們都發現"對比動態" 比 "解析度"重要時,一場眼球革命即將開始。所以CMOS可能會越用越大,直到能產生 1000:1 之影像。當然如果出現像 BSI那種將感度提升3倍之新科技,就更好,假如類似 Foveon 的方法有大突破,就又有機會再提升2~3倍,順便也可解決 Color Bayer 產生之問題,希望有一天人類真的可以將3個Photo cell 疊在一起,上層感應藍光,中層感應綠光,下層感應紅光,各色光各依波長鑽入矽晶中不同深度,對不同深度之 Photo Cell 起作用,就如同彩色負片或幻燈片一樣,當然 LCD 螢幕當然也要有相應的配合。


請看下面兩張照片你會喜歡哪一張

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇
畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇


畫素戰爭:

手機一但因尺寸限制,而選擇採用1/3吋之 CMOS, 那畫素應選多少呢?

以現在IC 製程水準要將1/3 吋CMOS 做到 100:1 動態,畫元 (element)一定要要大於 2X2微米。所以1/3吋 CMOS就只能擠進100萬畫素pixel,即400萬畫元 element。

再以鏡頭製程考慮,現今商用1/3吋CMOS 用的全玻璃3~5鏡片鏡頭的空間頻率解析度 (line pair),色像差 (abbreviation)還算夠用。假如為了縮小手機厚度而改用2片或更少鏡片,那色像差就會更大。如要做到 1300萬畫元,量產就很難穩定,而且色像差容易變更壞。所以若以現今非球面玻璃鏡頭科技考慮,400~800萬畫元應是甜蜜區。

這張圖在你的 27吋螢幕上應有 4X6 吋以上吧!
知道他有多少畫素嗎? 960X640=0.614 M 看~ 才61萬畫素而已就這麼漂亮。
原因不是畫素多,而是對比動態高,色飽和度高。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

1/3吋商用CMOS 這些年來進步神速,尤其是BSI 技術使開口率大增,ISO感度提高約3倍。 CMOS 輸出影像電壓也由 350mV 提高到 1500mV 或更高。使影像動態更佳。所以現在手機照出之相片或攝影都非常晶瑩剔透。

如果以相片來源考慮,依 Minimum Sub-Niquest Sampling 之理論,訊源攝影機之空間頻率解析度應比顯示器好兩倍,才可消除抽樣誤差。長寬若各兩倍總畫素變成四倍。如果手機LCD 螢幕是1920X1080=200萬畫素。那最佳訊源應有800萬畫素 pixel,也就是2400或3200萬畫元 (Sub-pixel)(看畫元是用哪一種排列)

但是古代CCD 在 2400萬畫元element 時無法每秒輸出60個圖場(frame) 所以專業攝影機都是使用分色鏡 (chroma splitter)將影像分成RGB 三色光,再分別由3顆 800萬畫素之 2/3吋黑白CCD擷取影像。黑白CCD 800萬畫素 pixel也是800萬畫元 element。 乘以3正好是2400萬畫元。 但是它是分光組合不是磁磚(Mosic)排列。 倒很像Foveon 的相反。

那手機應到底如何選照相攝影機之CMOS總畫素呢? 可以不可以學攝影棚用3顆800萬畫素呢? 或是一顆2400萬畫素呢?
答案是不可以,因為手機頂多只可以擠進1/4~1/3吋 CCD。將來 1/2吋也許還勉強可以,但鏡頭會變很大,如加上自動聚焦,光學防手震,會出現很高很大的火山口。

所以今年最佳像機應為1/3吋 100萬Pixel即 400萬element之時代。

我猜想 HTC 的決策可能是這樣來的。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

400萬顆 CMOS 畫元 (element) 以 2688X1520 擠在 1/3 吋 面積上,
每顆只分到 2微米寬, 2X2=4 即 面積約4平方微米。

2X2=4微米平方的光電二極體所能收到的光子已經很少。在星夜下有時一秒鐘才被一兩顆光子 (Photon)撞到。第一次在實驗室看到這種現象還以為是 CDS AGC-AMP 產生之熱雜訊,經在場科學家指導才看出來是光子在跳舞,也是我第一次目睹量子物理秀。

如果1/3吋 CCD 之畫面動態才能達人眼舒服感覺之下限 100:1。
那麼如在如此小的面積中,將總畫素量增至1300萬,每個畫元 (element) 的面積將更小。
1300萬畫元的CMOS 每個畫元 (element) 的面積約為 1.1 X 1.1 = 1.3微米平方,面積約為400萬畫元CMOS之1/3 如果 CMOS 尺寸採用1/4吋 那面積就要再小一些,推算約為0.83X0.83 =0.68 微米平方。
如此小的受光面積,將使動態降 5~6倍,(例如 100:1 >20:1)
即使有 BSI 加持,畫質感覺還是會變壞很多,訊噪比會變差,暗部雜訊變大,色像差,封裝入塵問題,都會隨之而來。

所以我認為手機用採用1/4吋 1300萬畫元之 CMOS 不是聰明的辦法。因為下一批消費者已經聰明多了。


===========================================================================================
近年來廠商廣告都將畫元 (Sub-Pixel element) 稱為畫素 (pixel) ,將 400萬畫元 (Sub-piexel element) 稱為 400萬畫素(pixel) ,將錯就錯,積非成是,已成業界常態。

其實那些宣稱 400萬畫素之 CCD CMOS 都一律只能輸出 100 萬個真實的亮度及彩色資料。也就是只能得到一張 100萬點之照片。黑白彩色都一樣,其它多餘的點都是插補製造出來的。
付出的代價是影像劇烈變化的邊緣產生嚴重假色。(例如一個小白點會被誤為16倍大的 紅點綠點或藍點。)

試想,若攝影機所照之畫面,是一個全黑布,中間只有一個精細白亮點,
這個亮點經過鏡頭後聚焦成一道白光束,這一道細細的白光束
若未經低通濾波器將他弄粗4倍,而直接打到正中心畫素中的R 紅色畫元,
那麼周遭左鄰右舍9家人,是否都要報告DSP 說他被一道紅光照到。
結果是畫面上一個白點竟變成9個紅點。
這就是假色,超級電腦,如何插補也無用,大羅神仙也無法解救。


由於 CCD CMOS 只能分辨光的強弱(黑白),不能辨別顏色,所以每個畫素 (pixel) 至少需要至少3~4個畫元 (element) ,畫元上面貼上 R紅、B藍、G綠濾光片,如此才能經由 DSP CPU 算出顏色及亮度向量,以組成正確亮度與顏色之照片。

----------------------------------------------------------------
http://en.wikipedia.org/wiki/Pixel
Pixel: 一個像素通常被視為"影像的最小的完整採樣"

完整就是3或4個畫元 (element) 共同解譯出一束光亮度及顏色。
利用Baryer方式計算來提高解析度有其極限,一定會在畫面細緻處,及亮度劇烈變化邊緣產生假色。
每一種算法只是在假色與解析度之間取平衡點。因為每一個畫素(Pixel)上面那三或四顆畫元 (element) 所接收到的光線之亮度跟色彩原始資訊是完全一樣的。DSP 無法從中取得更多的影像資訊。因為影像光束經過鏡頭成像後不是直接打在CMOS上,而是再經過兩片水晶片所形成之光學低通濾波器予以加粗4倍後才打到 CMOS 光電二極體上。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

首先第一片水晶將光束上下分裂成兩道完全一樣的光束。另一片則再將兩道光束左右分裂成四道光束。這4道亮度、顏色完全相同的光束再同時打到4個RGGB畫元(Sub-pixel element)上。
所以上下左右隔鄰的畫元(elememt)之資訊不能互相共用來解出更多之彩色或亮度資訊,因此400萬畫元 (element)之 CMOS 實際只能取出 100萬個不同的亮度及彩色資訊。無法得到更多的資訊。
因為兩片水晶組成之低通濾波器,已經將鏡頭送來之影像故意模糊成只剩100萬點,以防產生錯色假色及牛頓環現象。

近年來CCD CMOS 畫素越來越高,1/3 吋CMOS每個畫元element 都小到2微米寬,也就是一個畫素只有4微米寬,面積只有16微米平方,幾乎已達廉價光學鏡頭解析度之極限,一般3~5層玻璃、塑膠合成鏡頭已無法提供那麼細的影像,鏡頭能提供之最細影像點,已經比4微米直徑還粗,所以很多廠商就乾脆把兩片OLPF低通水晶片拿掉不用了。因為反正鏡頭本身產出之影像只剩100萬點細節,光學鏡頭本身已是一個低通濾波器了,就不必再用水晶片予以分裂加粗了。加了效果也不大。

這個答案就順便回答為什麼相鄰上下左右。 element不可以再交叉組合以取得中間光學插補。因為鏡頭根本沒有提供更多細節。沒有原始資料,神仙也無法算出更多資訊量。

至於400萬畫素的CMOS 相機輸出到記憶體儲存點數為何能達到 2688 x 1520= 400萬點呢?
實情是.............................................
那是一種工業話術,他只是將左右上下畫素加總平均後插補而已。(是畫素高不是畫元哦) 並沒有產生新的資訊量。任何軟體都可以隨時將100萬畫素之相片重製為400 800 1200萬點之照片。只要一直插補就可以。用硬體做,用DSP韌體做,用後製軟體做都一樣。

有人主張,可以用方法將亮度顏色插補出來,但我覺得並沒有不妥協色彩可以取得更好輝度解析度之方法。
讓我用下面的魔術方塊來說明插補的極限何在。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇


請將你的眼睛對準下圖中某個紅色畫元。然後將左鄰右舍,能與他組成4個色的Bayer都畫出來。
總共有9個畫元,對不對。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

現在看我變魔術將他們全部變紅色。

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇


試想,若攝影機所照之畫面,是一個全黑布,中間只有一個精細白亮點,
這個亮點經過鏡頭後聚焦成一道白光束,這一道細細的白光束
若未經低通濾波器將他弄粗4倍,成為4道光,而直接打到正中心畫素中的R 紅色畫元,
那麼周遭左鄰右舍9家人,是否都要報告DSP 說他被一道紅光照到。
結果是畫面上一個白點竟變成9個紅點。

如果畫面上有 44萬個小白點,等距均勻排列。
畫面上就會全部變紅,對不對?
鏡頭左移一小畫素後會怎樣? 全部變綠 右移呢? 上移呢? 下移呢? 右上 右下 左上 左下 呢?
整個畫面,全體都會在紅綠藍劇烈變化。對不對?
這就是假色,如真包換, 超級電腦,如何插補也無用,大羅神仙也無法解救。

那如果加上 OLPF 光學低通濾波器將光束裂成4條白光呢?

請看四周16個點會各自報告什麼顏色

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

看我再變

畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

現在只要黑布上有25萬點白點,畫面上就會出現彩色萬花筒, 對不對 !!!

一個400萬畫元的 CCD CMOS 上面隨便舉例就有 44萬個例外可以讓它全面崩潰。
怎麼能稱它是有真實400萬個輝度與色彩資訊呢?

即是用RAW 儲存,也是一樣,只能增加各色動態深度,不會增加像素的。

幸好自然界的影像沒有這麼嚴苛,很多像素都是相同或連續的。而且人眼對色的分辨率只有黑白的 1/3~1/8 (紅 1/3 綠 1/5 藍 1/8) (所以男人的西裝大多是藍色!!! ???)

數學家可以設計一些公式來預測畫素,而且常常猜對,但是猜就是猜,也是常常猜錯。

看官有興趣可以找一張 RAW 檔照片,放大10倍到能看清每個畫素,仔細看看裡面的假色有多少。JPEG 襠因為經過壓縮有很多原始資訊不見了,比較不易看出。因為JPEG 的 Algorithm 之一就是會將一群相近的顏色與灰度用完全相同的顏色與灰度來儲存,以節約記憶容量,所以不適用來觀察此現象。

有興趣可跳轉看看 New One 與 One X 畫質之不同。

http://www.mobile01.com/topicdetail.php?f=566&t=3355294&p=1#43682147

二'

由於 CCD 逐漸被 CMOS 光感應器取代。
製程也由 21道光罩降為12~15道光罩,許多提高畫素的良率瓶頸漸漸消失。
有些公司就開始以高畫素為廣告主打,卻沒告訴使用者 "高畫素" 的代價是犧牲相片最重要的 "動態比"。
由於要導正消費者很難,因此各照相機及手機大廠都被迫昧著良心捲入無盡的畫素戰爭中。
從35萬畫素到100萬,400萬 800萬 1300萬,不知伊於胡底。
此間很少有大公司願本著良知告訴消費者,畫素與畫質的真正關系。

反正推出高畫素新產品很容易,人家推 8M=800萬畫素,我就推 13M=1300萬畫素。
單眼相機甚至有2400萬,3600萬畫素,不久之後或將有5600萬,甚至 1億畫素之 CMOS 出現。
反正消費者很少懂得真正去詳細比較動態,亮部飽和,暗部雜訊問題。
照到畫面鈍鈍的,動態不夠好的照片,還誤以為是因為畫素不夠高。

其實只要拿手機或單眼相機,在夜間照街上紅綠燈,看到相片上的紅綠燈竟然都變成白燈,灯框上雜訊一堆,就知道 CCD CMOS 相機與人眼有多大差距。

"動態比" 是甚麼,1/3 吋 CMOS 為何會在 100:1 附近。
粗略的講,動態比就是一個影像之最亮點與最暗點之輝度比例.

例如:假設太陽光照在一個平面上,照度為 100,000 lux ,此時若有樹檔住造成陰影,陰影下照度若為100 lux, 這時我們若拿一片報紙放在陰影交界處。想要用相機拍照。此時若正好有兩隻相同的蝴蝶各自飛到陽光直射及陰影區下。

這時你就會發現若將光圈快門調至陽光下那隻蝴蝶曝光正確,報紙文字清晰。那陰影下那隻蝴蝶就會變成全黑,那區的報紙也變全黑,看不見文字。
如果將光圈快門調至陰影下蝴蝶曝光正確,那陽光下那隻蝴蝶就變成全白。那區的報紙也會變成全白看不到文字。

為什麼人眼可以看清兩隻蝴蝶,一張完整報紙,而照相機不能呢?
因為人眼是經億萬年改良過的,而照相機只是清朝末年發明的。

假設一個1/3吋 CMOS 每個畫元 Sub-pixel element 約有 2X2=4 平方微米之公稱感光面積。
當光子打到光電二極體時會將矽晶中的電子激發跳脫軌道,成為自由電子,一個電子帶有一個負電荷,電荷會被旁邊的電容器收納而產生電壓。因為 Q=CV V=Q/C 電壓(伏特) =電荷 (庫倫) / 電容 (法拉第)

假如在100lux 照度下,每顆畫元上的光電二極體在 1/60 秒內有 6000顆負電荷產生。灌入電容後會出現 500mV=0.5V 電壓。
這時若加強光度或延長曝光時間 (例如加大為 200 lux 或 拉長快門為 1/20 秒) 每顆畫元能產生之電壓不再增加,例如CCD 之水桶滿了,溢出來流掉,這就是動態上限。

當光線關閉後,光電二極體上理應沒有任何電荷產生,但事實上因為熱量也會激發電子,所以繼續會有電荷產生。 也會產生電壓。此外電場、磁場、電磁波、 Gamma 宙射線, Alpah Beta 射線也能幫忙激發電子。也就是雜訊。
再加上光子落在鄰近畫素之光電二極體時,因或然率的關係,有時會分布不均。
就好像軍人開槍亂掃射時,敵人有人中3彈,有人中2彈,有人中1彈,有人不中彈,也會造成雜訊。
電壓進入放大器後也會再增加雜訊,如果這些因素產生了 10mV 電壓,那麼 10mV 以下之亮度細節就會淹沒在雜訊下。

最亮處 500mV : 最暗處 10 mV = 50:1 這就是 CCD CMOS 的動態範圍概算法。

當每顆畫元上的光電二極體增大時,單位時間產生之電荷增加,輸出電壓自然也會增加。此時若雜訊不增加或增加有限,動態就會增加。
例如 D800之 畫素若為 5X5=25微米平方, 設若最高能產生之電子數為 40000顆。因而產生之電壓為3000mV。若當時雜訊昇高為 20mV 3000:20: 150:1 動態就會比 1/3吋好

(對半導體而言,攝氏是25度是它的克氏 298度,很熱的,你看連水銀(汞)那麼硬的得金屬都融化成液態了。
在克氏 25度也就是 攝氏 -248度時 汞比剛硬,可以當鐵鎚。 碳鋼則一敲就碎,如同玻璃)










手機或相機廠商如果輸在畫素戰爭上,則連被考慮購買的機會都沒有。
這就好像一個美女如果身高不夠 170CM 再漂亮也不能當模特兒一樣。

其實製造 CCD 或CMOS 的廠商最清楚,小面積的 CMOS 採用高畫素其實是畫質的毒藥。
但是迫於大眾多年來已被教育成只懂追求畫素,不懂追求畫質動態比,所以只好隨波逐流。靜待聖人出現。

幸好這些年CMOS 的本質感度與訊噪比有相當的進步,例如SONY 的 BSI 背照技術使開口率大幅提高,對靈敏度提升幫助很大,加上DSP 消雜音技術進步,多少將高畫素產生之缺點稍加彌補。所以高畫素競爭迄未見停歇。

但是手機上的相機功用,在這兩年有重大社會革命。他已由手機附屬品,聊備一格,變成最主要的功能。
連70歲老太婆都要買一台手機,照相上 Facebook WhatApp Line WeChat....等與兒女孫子溝通。
生日照相更是重要。據說日本人統計CCD攝影機最大用途就是生日攝影,第二才是婚禮。
生日攝影對工程師是最大考驗。因為蠟燭下光照低,色溫2800k下對 動態、雜訊,白平衡是重大考驗。

所以小面積 (1/6~1/4 吋) 高畫素 (800~1300萬) 照相機,可能要等到科技在進一大步後,才能再予考慮。
例如,光電轉換效率再升高至更接近量子極限。pixel 立體結構更加成熟,線性及數位雜訊抑制,及影像處理,更進一步。

=========================================================================**




在底片時代由於鏡頭解析度與底片差不多,要改善畫質只有增大底片一途。
35mm 底片被廣泛接受後。底片的 100萬畫素解析極限,曾被公認為是鏡頭設計的極限。
也只有很少數德國公司完成挑戰。

然而隨著 IC 製造進入奈米時代 CCD CMOS 感應器已經很容易做到100萬畫素以上。
這時鏡頭也因超級電腦發達,原先需經一年計算才能設計出來的鏡頭,只需2小時即可算出。
加上非球面及螢石玻璃也使幾何失真,色散失真,彗星型失真等問題一併被解決。
100萬畫素已經輕易可得。

但由於廣告惡性競爭,
大家都把100萬畫素 (pixel),400萬畫元 (element)的東西,聲稱是 400萬畫素 (pixel)
說久了竟變成業界術語。也就沒人再去深究了。
反正誠實說 100萬畫素的就會賣不出去。聲稱 400萬畫素的就賣很好。
誰要去冒天下大不韙,花很多錢去教育消費者。費錢說實話,讓別人享受成果。

隨著電腦的進步,鏡頭計算軟體已由兩小時減到3分鐘。
工程師就可大膽的嘗試新玻璃,新鏡頭形狀及組合。
解析度高達300萬畫素 pixel的鏡頭出現。
也就是 CCD CMOS 必須做到 1300萬畫元 (element)來配合




當初 RCA 製造 CCD 時,因為美國半導體廠的工人,常常夾帶三明治及飲料到無塵室工作。

加上 CCD 必須在正常 12~14 道 IC 光罩製程後再加 9道光罩製程才能完成。
如果潔淨室內太髒,即使到第 12道製程時良率有80%,再加9道製程後良率常常是 0
RCA 只好放棄生產。

改授權由去取經的 Hitachi 工程師帶回日本生產。因此Hitachi是當時全世界唯一生產 CCD 的公司。
當時的解析度是 EIA CCIR 黑白電視規格。 約720X480=35萬畫素。 尺寸為 2/3吋。
黑白時代畫元等於畫素,沒有爭議。

不久彩色電視出現,NTSC PAL 電視逼使電視台攝影機之畫素提升為3倍 成為 35萬畫素X3=105萬畫元
而面積也由 2/3吋降為 1/2 1/3 1/4 吋。
但是當時 Sony Sharp Panasonic 都仍誠實的稱其 CCD 為 35萬 38萬 畫素 (Pixel)
從未見有人誇稱其 NTSC PAL CCD 是 105萬 Pixel

當時等於35mm 底片相機用的 CCD 面積 (24X36mm) 約 3/2 吋= 1/1/2 吋一直做不出來。
因為需要用到一台一億元的昂貴的離子濺射機 (ion implentar) 才能提高良率。否則良率常常為 "0"
Hitachi 工程團隊向公司申請買 10台離子布值機 ,公司以財務困難為由只批准買3台。
工程小組憤而拒絕繼續研發。Hitachi 解散CCD 部門。

此事被SONY 公司得知,就以數倍高薪將 Hitachi 工程團隊挖角過去。
從此要錢有錢,要設備有設備,使SONY 後來成為 CCD 界之龍頭

當時CMOS 還是在玩具等級。 Omnivision 尚未誕生。
不料 CMOS 在 Omnivision SONY Sharp Panasonic 等公司及 台積電、聯電之加持下,力爭上游
居然變成主流。


=============================================================================

今天來談談從左右上下相鄰 pixel 交叉取樣是否能取出額外的獨立輝度信號。

我之前談到彩色CMOS 傳統上都是用兩片水晶片來將影像散成4點大。以防止偽色。
但我不敢太深談更高級的 CCD 攝影機除了有水平及垂直裂光水晶片外,甚至還加一片45度及一片135度之水晶將光斜角再裂成16點以消除斜向偽色。因我為怕離題太遠失焦。
因為這種做法

用水晶片來當 光學低通濾波器 OLPF,對大部分60後的小孩來說是非常陌生的。
他們第一次接觸水晶,可能是Swarovski 裝飾品假水晶。 或是電子頻率震盪用水晶。
其實水晶之晶格具有將光分裂成兩道平行光之特質。而且其間隔是可以精密控制到等於畫元中心與中心間之距離。分裂後當然是各分一半之能量。再經第二片分成四道光時,當然也是各分1/4之能量。

重點是4道光之內涵資訊是完全一樣的也就是光譜中各色之能量是相同的,不論是 o 或 e 光打到光電二極體時產生電荷是一樣的,這些電荷注入旁邊的電容器時會產生電壓,因為 Q=CV 所以 V=Q/C 然後在旁的放大器立即將它放大後送出。所以若將濾色膜洗掉, 4顆畫元是會輸出幾乎完全相同之電壓的。
(當然因製程變異,每顆光電二極體之效率會略微不同,電容器會稍有大小,放大器增益會微微不同,輸出之電壓也會微微不同。但這些問題可以用一個類似 CDS 的線路予以補償抵消。所以不在主要討論範圍。)

為何光線會乖乖的,每道光束都被分成4道然後乖乖的打到指定的畫素上那4個 RGGB 畫元呢。
鏡頭收到的外界影像千奇百怪,鏡頭如何能把它們分成100萬道獨立光束,然後射入水晶片再分成400萬道小光束呢? 自然界的光影是連續的,難道沒有中間光束介於兩束光中間,然後被水晶分成4道,其中兩道分到左鄰的GB 另兩道分到右舍的RG嗎? 這樣不是又多一個一個畫素填補在中間嗎?

今天我們就來談通案..................
設若左右兩邊的畫素原來都是全黑的,中間這道白光分成4道光,會使左邊R+G被點亮而報告收到洋紅色( Megenda) 右邊 G+B 被點亮而報告收到 青色(Cyan ). 這種假色是任何後端Bayer處理所無法克服的。
那如果左邊畫素是0% 輝度,右邊畫素是50%輝度,夾在中間這道具有額外解析度的光束是100%輝度。會怎樣呢?
左邊畫素輝度會報告為(0+0+100+100)/4=50_______顏色為灰中偏青色
中間畫素輝度會報告為(100+100+150+150)/4=150__顏色為亮灰帶青色
右邊畫素輝度會報告為(150+150+50+50)/4=100____顏色為淺灰中偏洋紅色

所以會將原圖上 原來 0 100 50 三個灰白色點,解易成 25 150 100 三個有用但錯誤很大的輝度資訊。 代價是三點顏色都出現假色。

如果將這8個點 RG GB RG GB 視為一組大畫素來看它的顏色及亮度呢?
0R+0G+100G+100B+50R+50G=300/6=50 50R+150G+100B=綠偏青色
所以會報告一個 50% 輝度的灰中偏綠偏青色
3合一,犧牲解析度後輝度也是錯的顏色也是錯的。

設若 MOSAIC BAYER 結構如下



如果中間可插一組



假如左邊畫素是0% 右邊畫素是50%輝度



中間這道具有額外解析度的光束是100%輝度



綜合光度將使這樣




============================================================================

以上用古代水晶分光法來說明,目的是為了使大家容易由真實連續世界跳入步進抽樣世界。

更有趣的是..................................

如果你想敲開你的手機攝影機,想找出水晶片來賣錢,你會很失望。
因為裡面已沒有水晶片,只有一片藍綠色紅外線濾光片。
是因為要降低成本偷工減料嗎? 是的!
那我自己加回水晶畫質會變好嗎? 會的!

那 Apple Samsung HTC Sony...這些大廠怎麼敢如此公然做?






====================================================================================
那麼請問現代手機及單眼像機,都有裝水晶低通濾波器嗎? 裝幾片?

CCD CMOS 畫素越來越高後,每個畫元已經小到微米級,跟光波波長已經差不多,
玻璃或塑膠鏡頭,已經精準到可見光波的1/4長,也就是次微米的奈米級,
再加上畫元動輒上千萬。光學已經快撐到底了。尤其是磨鏡片的工業已經由手動變成自動,甚至連非球面都可以自動磨出。

以前一個數百萬畫素解析度的玻璃鏡頭,一顆要數十萬,現在只要幾萬元。
以前機械磨好粗批後,師傅再來磨細部,現在手機用鏡頭射出成型一次OK。

還記得哈伯望遠鏡鬧近視眼的事嗎? 知道那片鏡片為何磨錯嗎? 是誰幹的好事呢? 悄悄跟你講,我也有功勞,說錯了 ! 我也是造成問題的眾多迷糊蛋中的一個。
談手機鏡頭,怎麼扯到哈伯望遠鏡,太遠了吧! 不遠,不遠。

所有一流鏡片在經過機器磨到差不多時,都要經過一道最難最貴的製程,
是甚麼? 有獎徵答!!!!

不是多層膜哦,是老師傅手工微修,以將鏡頭表面由奈米級精度,升高為次奈米級精度,並以表面微修來補償玻璃內部不均勻造成之折射誤差。要將表面修到光波波長之 1/10也就是 20~80奈米。
由於它已比光波短10倍,所以任何儀器都無法觀察,這些誤差完全非肉眼可見,也非觸感所能及。所以都要用一種工業秘密工法來一面觀測一面用鑽石膏將鏡頭修成正果。
聰明的科學家於是發明一種工具,外觀很像大樓的帷幕玻璃,將它放在要磨的鏡頭下,就可看出還有哪裡需微修磨。
由於哈伯望遠鏡的物鏡是史上最大,沒有人磨過,而我們那裏雖然磨過最大的間諜衛星鏡頭,天文望遠鏡,但還沒做過這一種超大型量測治具。等鏡頭要微修時,才發現沒有那樣大的工具,所以總工頭下令連夜趕出。為防萬一做了兩片。第一片磨歪了,第二片OK。我就吃完點心後後趕快搬去給師父用。

誰知……………………………


網友corch1017 回應如下:
---------------------------------------------------------------------------------------
悲劇......搬到第一片.........那怎麼辦...再送上外太空嗎??
如果版主是真的是有這種實務經驗的人,之前的高手們也要闡述 一下自己的自身經驗了
-----------------------------------------------------------------------------------------------------------

糟糕!! 竟然被 corch1017 猜到了。因為有人看我深夜加班太辛苦,所以好心將好的那塊搬去給師父用,搬好後就放著。我吃完點心,清晨03:00也趕快把壞的那個當好的送給師父。 順便把另一個拿去銷毀以免遭人誤用。師傅就用那個錯的做治具,很辛苦的將螺紋磨成木紋。 品管也用那個治具檢驗鏡頭,QA也用那個治具分析。因為全公司沒有另一個這麼大的治具可以來驗這個治具對不對.之後大家有疑問都來借這個治具。因為這個是最資深的大師磨出來的。上太空後發發現有問題時,大家都互指鼻子責難。無奈已經太晚。火箭升空後才發現,哈伯有嚴重近視眼。

以上是我做夢夢到的,看官切勿當真。

網友 fluidelement 看了我的故事提出看法入下
----------------------------------------------------------------------------
大口徑鏡片拋光誤差應該是用CGH量測吧! 哈伯是因為CGH的CONIC constant 有誤差
現在的拋光技術已經沒有在用人工修整,量出來的WFE直接用CNC拋光機 或是ION BEAM拋光
未來鏡片的趨勢已經不是用單片大口徑鏡片來組成,而是用多片鏡片拼接的系統
http://www.aao.gov.au/instrum/ELT/Workshop/
http://www.jwst.nasa.gov/
-------------------------------------------------------------------------------------

我回答如下:

我拋的磚終於引出一個光學專家浮上水面。fluidelement, 像你這樣的人才如果願意多貢獻,將是本論壇之福,你應是真正的光學人才。
我們那時,還在唐朝年間,還沒有這些現代工具,半導體 Design rule 是 6微米= 6000奈米,現在是 28奈米或更小。 更不要說電腦大家要排隊用,連白宮的傳真機都是 QWIP 電燒成像的,不是熱感紙,也不是噴墨或雷射因刷。

fluidelement 煩請你幫忙將 CGH CONIC constant WFE 幫忙解釋得更詳細一些,看官等一下就更能了解並抓出我掰錯的地方。

fluidelement 很快在 550樓提供如下:
-------------------------------------------------------------------------
如果用干涉儀 直接量測非球面 會產生誤差
所以要使用CGH 使量測波前與待量測非球面相同

-------------------------------------------------------------------------------


由於水晶的特殊晶格結構,

它可以將光線裂為兩個距離精準相隔一個畫元 (Sub-pixel element)之兩道光。所以大量被用在高級像機,電視棚攝影機,及很多光學成像設備上。

在古時候水晶片厚度、角度,如何計算如何切割還是工業機密。我為了得知這個 Know-how 還把 SONY 技術部長灌醉,才套出來的。 當時水晶 OLPF 都要跟日本、德國、美國廠買,每顆數十美金,當然很貴, 後來有一位光學博士回台灣設廠大量生產,從此 OLPF 變成普通常識。只要給他們CCD CMOS 畫素規格,他就自動算好交貨,日子久了,新一代工程師就根本不會計算了。

看網上回應,雖然有些人可能是負有任務來找碴,但是好像也有些人真的打從內心覺得,用水晶將光分成4道,然後分別打到 4 個, RGGB 像元,實在難以置信。

其實SONY 的人第一次告訴我時,我也以為它是在框我。



這是 D800上面所裝的 OLPF 水晶片將光分成四道的過程之示意圖

由圖上可以清楚看到光線由 1分2 再由 2 分 4
其實大部分高級單眼相機,實裝之水晶片比兩片多,但因涉及工業機密,沒有顯示出來。反正顯示出來也不能增進說服力。反而模糊焦點。
光束是有寬度的,一束光被裂成4束後會有點像奧運五環中的四環。是一個由四個圓型結合成的近似方型。所以原來影像中的 高空間頻率 (Spatial frequency) 部分就會被濾掉。



用麻瓜話講就是,影像中的細白點細黑點,黑白銳利邊,顏色強烈變化之接縫處,都會被去掉,變柔和,也就是變模糊。例如有一影像內含 10 20 50 100 200 300 line pair 之細節,裝上 200 LPI 之 OLPF 後所有200 及 300 LPI 之細節都會被逐漸模糊化,目的是要消除 彩色Bayer 之空間頻率太高所產生之光班、色班、假色、及牛頓環。





這是 D-800E 上面所裝的 OLPF 水晶片之示意圖
理論根據是,畫素2400萬以上時每個 Pixel已是那麼小,大部分光學頭鏡頭已經無法解析出那麼細的光束來單獨餵每一顆畫元(element) 而產生假色。 甚至最細光束都已比一個 4個畫元組合出來的畫素 pixel 還粗。也就是說光學鏡頭之 MTF 已經輸給 CCD CMOD 的精細度。如果鏡頭提供之最細光束已經內麼粗,那就不需要兩片水晶組成之 OLPF 來將它裂成4道,以模糊化之。






這是實驗室中觀察四點光是否正確分布之研究。






這是 Cannon 專利中之圖面。

如果 D-800E 決定完全不要用 OLPF 那麼為什麼它的說帖中反而由2片增為4片水晶呢?
為什麼不拆掉2片而反而加到四片呢?
為什麼要將光束裂成兩道,然後再合成回原狀呢? 這不是脫褲子放屁嗎?

(圖中只以垂直由一片變兩片,來示意,未畫水平那兩片也是由一變二。 大概是怕越說越亂吧!
其實真實物品應是 D800 裝4片 D800E 裝8片)

水晶片全部不裝可以避免水晶片研磨不良、膠合氣泡、光被衰減、光被極化、色相變化....等缺點。
為何不選全拆而要加倍!!!!

這是一個很痛苦的工業機密。因為 Nikon 不像 Cannon 有自己的 CMOS 晶片廠,那顆 CMOS 不是 Nokon 自己做的。而且 S 原廠早已做好 ( 稍早前將 Nikon 誤打為 Cannon 謝謝許多網友私下提醒及一位網友公開指責)為了怕入塵,工廠不願裸片出貨。一定要裝好2片水晶片,並事先做好抗反射之 AR 及斷紅外光之 IR coating ( AR =Anti-reflection) (IR= Infra Red)


要挖掉水晶改裝平板薄璃,太困難了!!!


====================================================================


有人問甚麼是空間頻率?

空間頻率就是每單位長度有多少黑白條紋。或彩色變化。
例如若每一英吋有300對黑白條紋,它的空間頻率就是 300 dot/inch 也就是俗稱的 300 DPI ( Dot per inch) 如果化成公制就是 11 dot/mm 公制數字太小所以大家都慣用英制。

如果我們在一張白紙上畫滿等寬的黑白條,然後用一支筆在一秒鐘內由左而右畫過。
設若筆尖有一光電二極體,可感知黑白。如果我們將信號接到示波器上。就會看到一個方波。
但因為這個世界的光影大多呈如何知正弦曲線所以正弦光影也應被討論


沒學過光學的人可能會覺得影像是連續的,哪來最小光束這種說法。坦白說我一時還找不到一種讓麻瓜也能懂得比喻。待我想到再提供。 線上如有高人也歡迎幫忙說明。

我唯一想到的,但不完全正確的說法是,在墊板上開一個孔,放在太陽底下就會出現一個光圓錐 (cone) 而且那個亮點比孔大。當然實情是太陽並非點光源,它的發光面有面積。而世界上所有的實物再細也都是有面積的。



MTF (Minimum transfer frequency)
上圖是某一個光學鏡頭之 MTF 曲線,可以看出 某個空間頻率以上之影像會被劇烈衰減


下面這張圖是顯示有被 OLPF 濾高頻及未被濾高頻影像之比較。
請注意,清晰影像經過不完美鏡頭後能產生甚麼影像。

圖中上面是亮度以正弦曲線變化之原圖,下半是亮度以方型銳利線條變化之原圖。
兩者都經過一個相同的低 MTF 鏡頭後之結果。



哇靠!!!!!
大大你太強了!!!!
神人神人


讓我上了一課~
讚…像這種專業討論文真的不多…

但會回文或討論的真的很少,也沒錢領

不如自己發個不專業討戰文

這已經是01現象

一般半桶水也不會來回…所以很快就沉了

但我還是給版大讚讚讚…

此樓原內容已改寫後併入3樓。

foveon 是我最希望他成功的東西。
foveon 是一個畫素 (pixel) 內部垂直含 3個畫元 (element)

所以 500 萬畫素 (pixel) 就有 1500萬個畫元 500X3=1500
一般 CMOS 2000萬畫素 其實是 2000萬畫元 2000畫元/4=500萬畫素。
就理論解析度而言是一樣。

但是因為 foveon 不需要裝兩片低通濾波器將一道白光化為4道光。所以解析度應該比 CMOS好一點點。
再加上他每一個畫素是 CMOS 的4倍大 所以單位畫素接受到的光是 CMOS 的4倍。
所以他應比CMOS 4倍 靈敏。而且也較不易達到光波量子極限。
可惜foveon 製造技術有待改近之處甚多。低照度動態一直做不好 又缺乏大廠加持。路還很遠。
大大給你一個
像你這樣有知識的人現在真的不多了
也給我上了一課(以前普普知道畫素不正比於畫質)
原來大家都在說謊

...?等等好像哪裡怪怪的
頂好文

bv2fb wrote:
一:HTC 在歷史上...(恕刪)
好文要頂
bv2fb wrote:
一:HTC 在歷史上...(恕刪)

bv2fb wrote:
一:HTC 在歷史上...(恕刪)


好文章!! 受教了^^
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 77)

今日熱門文章 網友點擊推薦!