畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇


maxvipworld wrote:
TRUE COLOR不是不能,而是否能在同一位置上,CRT、foveon X3就是個例子。


CRT 上的 RGB 三色空間位置是不同的, 並不是在同一個位置.
顯示器也和 sensor 一樣, 它的能量來源 (CRT 是電子槍, 液晶是背光加液晶分子,電漿是離子激發的紫外線) 都只帶有亮度的資訊, 而根據各別位置的 subpixel 帶有不同的顏色特徵 (CRT 跟電漿是三色螢光粉, TFT-LCD 是彩色濾光片), 才能顯示出不同的色彩.

小弟所學不精, 不過就我所知目前的顯示技術應沒有可以在單一位置直接控制出彩色的技術. 當然 3-LCD 投影等利用光學疊加的方式是做得到的, 就像 3-CCD/CMOS 的 camera 系統一樣, 它不是 component level 的技術.

maxvipworld wrote:
TRUE COLOR不是不能,而是否能在同一位置上,CRT、foveon X3就是個例子。


CRT 上的 RGB 三色空間位置是不同的, 並不是在同一個位置.
顯示器也和 sensor 一樣, 它的能量來源 (CRT 是電子槍, 液晶是背光加液晶分子,電漿是離子激發的紫外線) 都只帶有亮度的資訊, 而根據各別位置的 subpixel 帶有不同的顏色特徵 (CRT 跟電漿是三色螢光粉, TFT-LCD 是彩色濾光片), 才能顯示出不同的色彩.

小弟所學不精, 不過就我所知目前的顯示技術應沒有可以在單一位置直接控制出彩色的技術. 當然 3-LCD 投影等利用光學疊加的方式是做得到的, 就像 3-CCD/CMOS 的 camera 系統一樣, 它不是 component level 的技術.
謝謝你,我又釐清了一個觀念。
所以目前做的出來的只有foveon X3和3-LCD囉
謝謝你釐清了我一些觀念。
所以目前可以做到的只有foveon X3和3-LCD。
資訊理論上有所謂 entropy (熵, 或是 "亂度") 的概念.
一個資訊系統內的 entropy 越高, 代表它所包含的資訊越複雜. 這個概念近年來在各種 video coding 的技術突飛猛進下, 漸漸為人所知.

樓主認為 4M 的 Bayer sensor 其表現僅等同於 1M 的 Foveon sensor 或 3CCD/CMOS sensor, 但我認為 4M 的 Bayer sensor 其表現應高於 1M 的 Foveon sensor/3CCD/3CMOS sensor. 我們很難站

在一致的立場去討論亮度的空間解析度或色彩的空間解析度, 所以我傾向用 entropy 的概念去比較.

這麼說吧, 如果要以照出來的資料, 其內含的 entropy 來排序, 應是:

4M Foveon sensor > 4M Bayer sensor > 1M Foveon sensor

理由我在之前的回文中已經強調過很多次, 因為 Bayer pattern 上的 R, Gr, B, Gb 是各自處在不同的位置上, 這些 subpixel 彼此之間是有空間鑑別力的, 而不只是單純感應樓主所謂同一個 pixel

內的 "一致" 的亮度及色彩資訊. 即使加了 OLPF 或因為光學鏡頭的 MTF 不及 subpixel level 的解析度, 因為它在空間上的連續性, 它們還是具有空間鑑別力的. 只是如果你要用到這樣的鑑別力,

一定會出現假色, 而且會在特定的 pattern 上出現無可挽救的罩門.

***

樓主確實是影像感測業界的老前輩, 但晚輩斗膽想告知的是, 不只半導體工業近年來進步神速, 光學也因為規模經濟的關系比以往的發展要迅速得多. 有太多東西, 以前認為是錯的, 做不到的, 不正確的方向, 現在可能都因為技術的成熟而有不同的解釋了.

以 pixel size 為例, 早年在監視系統業界的鐵律就是 pixel size 決定進光量, 而在解析度固定的狀況下 pixel size 就決定了 sensor size, 所以越大片的 sensor 真的影像品質比較好. 樓主也

有提到 pixel size 相關的 pixel 容量與 noise figure 的關係 (事實上 read out noise 佔的比重比較高) 以決定動態範圍, 這在十多年前仍然是鐵律.

但那時我們沒有 HDR 啊, 現在 HDR 滿地都是了.

以前設計 sensor 的人會斤斤計較所謂的 full well capacity, FWC, 單位是幾個電子, 也就是每個 pixel 上每次積分由光電效應可以打出多少電子來存在裡面. FWC 之所以決定動態範圍, 除了 noise figure 以外, 還有 read out noise 的因素, 而且更讓人不安的是, 電子其實是離散的東西, 當這東西小到一個程度, 它就是一顆一顆可以數得出來的東西.

以 Canon S70 (對不起我舉的例子有點舊) 的 sensor 為例, 它的 pixel size 是 2.3um, FWC 是 8100e-, 也就是說它的 photo diode 內最多就只能存八千一百個電子, 再多就滿了, 沒有亮度鑑別力了, 而它的 read out noise 大概是 5e-, 也就是說每次讀取時的不確定性是五個電子. 這樣一除下來, 它的動態是一千六百多倍上下. 八千一百其實已經是個 "數得出來" 的數字, 就算我們的系統精確到可以辨別每一顆電子的差異所造成的電壓差異, 也用不到 13-bit 或 8192 階的 ADC 了, 因為電子就是只有 0 到 8100 顆這樣的範圍, 它不會有 100.5 顆電子這樣的讀數出現.

2.3um 是很大的 pixel. 現在手機的 pixel size 都是 1.4um, 1.2um, 1.15um 這種級數的, 而且有些衝得快的已經做到 1um 以下了. 再小下去, 也許 IR cut filter 就不用加了. 1.15um 的 pixel 面積只有 2.3um 的四分之一, 它的電荷容量, 或是 FWC, 差不多就只有 2.3um 的四分之一, 大概兩千個電子. 天啊, 在 pixel level 就已經是一個只有兩千階 (事實上遠低於此) 的訊源, 這拍出來的東西能看嗎 ?

HDR 救了我們. 不管是業內業外, 現在沒聽過或是沒用過 HDR 的人應該不多. 藉由動態改變 pixel 的曝光時間, 我們可以讓 FWC 極小的 pixel 有著極高的動態範圍. 這不一定要像 iPhone 拍照時拍兩張去合成那麼蠢還會有疊不起來的問題, 很多 sensor 其實可以在 pixel level 做 HDR 合成, 否則千萬畫素的手機拍出來的東西是不可能可以看的, 不管高光低光都一樣. 有了 HDR pixel, 加上新的一些 pixel level 的 reset noise cancellation 等技術, 其實現在 1um 的 CMOS pixel 它的效果不會輸給十年前 5um 的 CCD pixel.

以往軍規或航太會需要到上百 um 的 pixel 以產生極高的動態範圍, 現在的方向也不太一樣了, 數十 um 的 pixel 加上一些數位的技術就可以做到類似的效過, 大大簡化了光學系統的難度.

樓主應該對 CCD 很熟悉, 也知道 CCD 之所以可以稱霸江湖這麼多年, 就是因為它的 perfect charge transfer, 一個子不多一個子不少, 統統可以倒出出來給你量. CMOS 確實不管怎麼做都做不到這一點, 但是現在電晶體越做越小, 一個 pixel 內可以塞的電路越來越多, 在 pixel level 可以玩的花樣也就越來越多, 未嘗不能另闢蹊徑擊敗 CCD.

另外值得一提的是, Sony 的 sensor 之所以可以騙吃騙喝這麼多年, 理由大家應該聽過, 就是所謂的 HAD 結構 (聽過 HAD CCD 吧 ?) Sony 也試著要在 CMOS sensor 上實作 HAD (其實也做了不少),
但後來發展的新技術像背照 (幹, 那個 wafer 真的超難磨), 或是甚至最新的背照加貼合, 其改善的程度都遠超過 HAD 甚多. 如果 HAD 加 10 分, BSI 大概加 30 分吧. 我想說的是, 技術的進步, 它的 tempo 有時候是出人意料之外的. 樓主認為現在的塑膠鏡頭沒辦法撐起 1.3M pixel 的 sensor, 但事實上量產的 3P, 4P 鏡頭很多都可以在 1.1um 的 pixel size 上有著不錯的 MTF.

小弟曾經是業內人, 也是局內人, 因此有些事不方便言明, 但真理越辯越明, 這是我想認真參與這次討論的初衷. 還望各位指教.

maxvipworld wrote:



你知道這張照片真正的問題在哪嗎?
在於一個 pixel 已經變成一個人眼清楚可見方塊在顯示.

這才是你需要想一下的地方,
True 不 True color 不是重點,
當你這樣看的時候, 都是屁......
birdlg wrote:
樓主認為 4M 的 Bayer sensor 其表現僅等同於 1M 的 Foveon sensor 或 3CCD/CMOS sensor, 但我認為 4M 的 Bayer sensor 其表現應高於 1M 的 Foveon sensor/3CCD/3CMOS sensor. 我們很難站
...(恕刪)


這個剛好有實際的例子可以比較

Sigma的DP一代, 約469萬畫素 X3 約= 1406萬畫素 (片幅比APSC略小)
在光影跟色階過渡及寬容度上 (比如天空、樹葉這類的) 擊敗同時期 APSC 1600萬畫素的相機

而新的DPM 約1533萬畫素 x3 約= 4600萬畫素 色彩光影細節勝過 3600萬畫素的 D800

可以說在顏色相近且不規則的複雜場景中(岩石、植物等),Bayer 容易相近的顏色糊在一起
可以推測出是因為計算補插無法應付。因此 X3 相機實際解出來的細節比同畫素的bayer相機高。

但是在黑白線條的測試紙做解析度測試中,X3系列則表現不如bayer (Dpreview有測試)

顯然的,bayer 排列,對只有黑白線條的圖像解析度遠高於對色彩色階光影的解像力。(或者說對色彩色階的解像力遠低於對黑白線條的解像力)

很多那種放大裁切比細節的人,很容易只看到黑白的文字或線條(最顯眼),就以為解析度高,實際上色彩光影的細節演繹在一張相片的寫真度中通常更重要。


DPM and vs D800

在01的sigma 版 也有很多DP系列的圖可參考


技術的進步,使得畫素可以愈做愈高沒錯,但是只要畫素密度會干擾畫質到某種程度,那麼不管畫素做到多高,降低畫素求取更好的畫質就永遠會是個方法。也就是說,即便今天手機畫素能做到2千4百萬畫素,但只要是這密度會對畫質產生干擾到某種程度,那麼降到比如1200萬求取更好的畫質的方法仍會行得通。也因此,單眼的畫素密度都會保持低於手機及一般DC。

在干擾產生的情況下,畫素密度愈高,干擾愈嚴重,顯現在影像上,就是光影色彩愈糊、畫面看起來愈平、沒有層次,因為對產生層次立體感而言最重要光影色彩細節,都被抹平了,甚至被當雜訊處理掉。外行人看沒有雜訊好像畫面很乾淨漂亮,但一些攝影師寧可要雜訊,也不要抹。有點雜訊但保留較豐富的光影感還頗有底片fu~

在相機版混久的都知道 片幅先決。m4/3的相機,同畫素下畫質再怎麼樣也贏不了APSC。理由很簡單,如果你用m4/3畫質能做到跟APSC一樣,那麼同樣的技術用到APSC,畫質還是又超越了m4/3。同理APSC也贏不了FF。
我誰呀,我瑪爾Gy耶!

maxvipworld wrote:
謝謝,不過我指的是LCD或CRT是用R、G、B成像的,還是要轉為R、G、B才能成像。


你到底想說什麼?
怎麼開始跟樓主一樣東拉西扯起來了!

那印出來的時後呢?
存放在網路上的時候呢?
問題在於這根本就跟原本在討論的 sensor technology 是不同的東西,
卻又亂七八早扯在一起.....

你好像沒看懂.

The real problem is not Bayer vs True color.
The real problem is how you can accomplish with different ways and what kind of trade off you have to deal with.

yes in the ideal world True color method alone will result better in resolution in both color and mono than Bayer but the problem is that you are not in the ideal world.

birdlg wrote:
資訊理論上有所謂 e...(恕刪)

這棟樓真的引出很多好文與高手,不能倒也不能歪,大推

Cudacke Dees wrote:
你知道這張照片真正的...(恕刪)


如果站遠一點看呢?



文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 77)

今日熱門文章 網友點擊推薦!