畫素競爭下的真相 ---- 1/3 吋 CCD CMOS 作成 400萬畫素 是否是正確選擇

Racer wrote:
我想樓主您的意思是下...我想樓主您的意思是下圖中第一種情況沒錯吧?
但同樣的,如果受光的部分剛好是中央的四個畫元,
那輸出的兩個像素豈不都是假色?
而輸出的三個像素中則至少會有一個是正確的?(恕刪)


謝謝你花時間畫圖說明。我想你是有認真思考過。你的想法看似有道理。
但是我的實際經驗告訴我,你的方法沒有被採用過。我年輕時也曾經妄想要這樣做,但失敗了
如果你是我的研究生,我會給你高分。因為你如此認真,所以我想破格傳授你本門不傳之祕。

我原不想回應那些惡質打手,但是看到有許多像你這樣的人,真的是認真參加討論,求知、求真若渴。
今天又精神很好,就打打字吧!

你的方法不可行的原因是.................。

每一個畫素(Pixel)上面那四顆畫元 (element) 所接收到的光線之亮度跟色彩是完全一樣的。
DSP 無法從中取得更多的影像資訊。因為影像光束經過鏡頭成像後不是直接打在CMOS上,而是再經過兩片水晶片所形成之光學低通濾波器後才打到 CMOS 上。

第一片水晶將光束上下分裂成兩道完全一樣的光束。另一片則再將兩道光束左右分裂成四道光束。
這4道亮度顏色完全相同的光束再同時打到4個RGGB畫元(Sub-pixel element)組成的一組畫素Pixel上
所以上下左右隔鄰的畫元(elememt)之資訊不能互相共用來解出更多之彩色或亮度資訊,因此400萬畫元 (element)之 CMOS 實際只能取出 100萬個不同的亮度及彩色資訊。無法得到更多的資訊。

至於CMOS 相機輸出之儲存點數為何能達到 2688 x 1520= 400萬點呢? 實情是................
那是一種工業騙術。他只是將左右上下畫素加總平均後插補而已。並沒有產生新資訊量。


bv2fb wrote:
謝謝你花時間畫圖指導...(恕刪)


樓主: 我又來嘴砲了~
我只能說樓主你要說什麼我知道,但文字陳述時內容錯很大,
最大的問題,就是把 光~電子 與 電子~光 兩個過程 攪和在一起解釋了
像我們一般人光是要怎麼把產品用好都很難了,更別說這些工程方面的問題.
我猜您應該是穿三槍牌長大的(電子槍crt螢幕)
不過現在時代不同了,您這樣的陳述只會讓大家看得霧煞煞,更何況內容錯誤不少.
話說回來. ~ 若要談論目前市面上手機的相機解析度演算方式,也請縮小範圍.
畢竟這裡是手機版不是?

另外,麻瓜也沒甚麼,麻瓜說麻瓜話再正常不過了,
要是Draco也說麻瓜話那才好笑不是?
ad47 wrote:
bayer猜得好,有可能猜對,把遺失的資訊補回來(應該說不盡正確,但相差不遠)
軟體運算,無論如何都只是亂猜,只是看演算法能不能猜得好看。


我相信你我都很清楚bayer pattern是怎麼回事,那是近代數位影像的基礎,
當然差補可用還原率不及bayer算法,但以提升像素跟畫面連續性改善差補一樣有用,
尤其是在原生像素正確率很高的時候,也就是噪點很少的狀況下,
所以用手機塞的進的sensor體積來說,有效降低噪點跟入光量的提升反而比較重要,
降低像素密度我覺得是正確的一步!
不過我個人對HTC沒有什麼好印象,我還是不會買的.......
Heel toe bend symphony?
樓主連一吋ccd=16mm對角線也不知道,建議你多到相機台去看看。
感覺上大家都很專業

小弟並不懂這些專業

不過個人想法的是

假設感光原件的單位面積吸收越多有效的進光量

所展現出的成像應該是越好

單位面積無法吸收到較多有效的進光量

展現出的成像應該會比較模糊有雜訊吧

小弟本身使用的手機是 ONE X

夜間拍攝照片跟日間拍攝照片出來的成像差異應該就是這樣

而 400萬畫素 與1300畫素 如果都在人眼可視的範圍內

日間拍攝應該無差異性

夜間拍攝應該就看得出好壞了吧
bv2fb wrote:
每一個畫素(Pixel)上面那四顆畫元 (element) 所接收到的光線之亮度跟色彩是完全一樣的。
DSP 無法從中取得更多的影像資訊。因為影像光束經過鏡頭成像後不是直接打在CMOS上,而是再經過兩片水晶片所形成之光學低通濾波器後才打到 CMOS 上。

第一片水晶將光束上下分裂成兩道完全一樣的光束。另一片則再將兩道光束左右分裂成四道光束。
這4道亮度顏色完全相同的光束再同時打到4個RGGB畫元(Sub-pixel element)組成的一組畫素Pixel上
所以上下左右隔鄰的畫元(elememt)之資訊不能互相共用來解出更多之彩色或亮度資訊,因此400萬畫元 (element)之 CMOS 實際只能取出 100萬個不同的亮度及彩色資訊。無法得到更多的資訊。


惡質打手不會是再說我吧

如果上段敘述屬實,那我想在座有認真看文章的各位,對於你Pixel,element,以及100萬、400萬的說法
應該都無異議,但如果真是如此,代表說網路上成千上萬的敘述、圖檔資料都是錯誤的了!?
GOOGLE CCD Microlens

照你的敘述,意思就是microlen的空間位置數目其實只有廠商號稱pixel的1/4,
是市面上大宗CCD/CMOS感光元件都是這樣設計的嗎?

---
更正,又看了一下
我似乎把你說的OLPF跟microlens混再一起談
如果你說的"將一束光線裂解成四個方向"是由OLPF來達成,
但OLPF目的不是只是降低取樣頻率,減少Moiré之類嗎???
又目前有數台號稱無OLPF,那........?!

您說的應該是下圖狀況

那這個的話....


所以究竟有沒有
"OLPF將光線分成四個方向後射入一個4 pixel,1element單元中感光"這件事?!

bv2fb wrote:
...(恕刪)
所以上下左右隔鄰的畫元(elememt)之資訊不能互相共用來解出更多之彩色或亮度資訊。
因此400萬畫元 (element)之 CMOS 實際只能取出 100萬個不同的亮度及彩色資訊。
無法得到更多的資訊。
至於CMOS 相機輸出之儲存點數為何能達到400萬點?
那是一種工業騙術。他只是將左右上下畫素加總平均後差補而已。
沒有產生新資訊量。

網上參加討論者熱心有餘,實戰經驗不足。
談論內容大多是由報紙雜誌網路吸收而來,僅能涉皮毛。

對於這種曾經是工業機密之know-How 完全不了解。
才會有400萬畫元就是 400萬畫素之誤解。

結論就是宣稱 400萬畫素之CMOS 其實只聲輸出 100 個真實 黑白及彩色資料。
其它都是插補假造,愚弄麻瓜而已。


A....
不能同意.... 沒有更多....
四百萬個資訊就是四百萬個資訊
只是這些資訊就是四百萬個亮度資訊

至於顏色, 就是數學運算所得
我覺得沒有誰騙誰
bv2fb wrote:
謝謝你花時間畫圖說明...(恕刪)


先感謝一下樓主提供了這些資訊,小弟野人獻曝一下…


現代的數位相機要成相,除了前段的CCD/CMOS感光元件捕捉光線外,
還有後段要將電子訊號及色彩組出來的影像處理晶片,
其中使用了一些演算法來使畫質提升再輸出成照片檔,
畫成流程就是:

感光元件(捕光) >> 影像處理晶片(演算法) >> 圖檔輸出

讓我們先擺脫pixel和element,換個角度來看【bayer排列】。
如果單位面積的資訊量為1,則在bayer排列下得到的資訊量就約只有1/3。
因為單位面積中被切成許多小塊,而每一個小塊只有得到紅(R)、藍(B)或是綠(G)一種資訊,
其它兩色會被瀘掉,所以資訊量就只有1/3(即只剩一種顏色)。

而在【影像處理晶片】中會用演算法來補充資訊量,
例如您前面所提及的方法。
但【演算法】不是萬能的,不過整體而言,是可以推測得到比原來資訊量更多的資訊。
再讓我們複習一下【bayer排列】:


如果今天的資訊是一個純綷的白,
那排列中的4個元素都得到一個自身顏色的100%亮度資訊,
所以非常容易地,我們可以用隨便的演算法就推得這是一個白色,
而且切成幾份都是對的,也就是說我可以從1/3的資訊是推回1份完整的資訊量。

但上面是最佳的例子,我再舉一個最糟的例子。
如果今天的目標資訊正好是右旋90°的bayer排列,即:
GR
BG
那因為瀘色片的關係,排列中的4個視素都得到一個自身亮度為0的資訊,
這種case是怎樣都「猜」不出來它原來的資訊是什麼的。

目前用在bayer排列【演算法】上的其中一個弱點就是在色彩上的斷階,
例如:白色物體邊緣的「紫邊」(或藍邊),
正好在斷階上的這一組元素上,再聰明的演算法也沒辦法確知,
它真的有這個紫邊,或者它就是明確斷階,
參考再多的點也沒有用,因為它沒有這方面的資訊。

演算法說穿了就是「猜」,因此不是一個絕對的數字,
會因為案例而有所不同,猜中了,就是提升,猜不中也沒差,
反正本來就沒有,哈~~

=======================================================================

new ONE上面用了一個非主流的400萬畫素(我隨波逐流啦…)的感光元件,
我想也是試水溫,最終還是要看消費者買不買單,
但在製造話題上,我想是大成功啦,看這邊快40頁的串文就知道…

如果消費者真的非常不喜歡,
那在new ONE+改成1300萬畫素(我又隨波逐流啦…)的鏡頭組就好啦,
還可以再掀一次話題呢~~
反正曝光愈多就是好~~


bv2fb wrote:
那些宣稱 400萬畫素之CMOS 其實只有輸出 100 個真實的亮度及彩色資料。
只能得到一張 100萬點之照片。其它都是插補假造,愚弄麻瓜而已。


堅持這個說法其實沒太大意義,
因為也只有 Foveon X3 是用三層, 說400萬就是真實的400萬個彩色資料點,
其他家都是bayer排列~ 都需要用插補補足資料點~
這樣反而引超混亂...
看版上一堆人都聽不懂就知道有多混亂了....

bv2fb wrote:
你的方法不可行的原因是.................。

每一個畫素(Pixel)上面那四顆畫元 (element) 所接收到的光線之亮度跟色彩是完全一樣的。
DSP 無法從中取得更多的影像資訊。因為影像光束經過鏡頭成像後不是直接打在CMOS上,而是再經過兩片水晶片所形成之光學低通濾波器後才打到 CMOS 上。

第一片水晶將光束上下分裂成兩道完全一樣的光束。另一片則再將兩道光束左右分裂成四道光束。
這4道亮度顏色完全相同的光束再同時打到4個RGGB畫元(Sub-pixel element)組成的一組畫素Pixel上
所以上下左右隔鄰的畫元(elememt)之資訊不能互相共用來解出更多之彩色或亮度資訊,因此400萬畫元 (element)之 CMOS 實際只能取出 100萬個不同的亮度及彩色資訊。無法得到更多的資訊。


畫個圖來說明 OLPF 的工作方式好了. 比例不完全正確, 但意思應該有到, 請見諒.



實際上的 OLPF 是兩個維度的, 我們只看一個維度方向的 OLPF.

來自 A 點的光, 打在 OLPF 上, 被 scatter 成兩道, 照在 R1 和 G1 上, 因此如你所說, R1 和 G1 會收到相同的亮度及顏色資訊. 同樣的情形也發生在來自 B 處的光, 會讓 R2 和 G2 收到完全一樣的資訊.

但別忘了, OLPF 是連續的結構, 成像的來源也是連續的. A 和 B 的中間會不會有像源 ? 當然會, 就像右邊那張圖一樣, 來自 C 的光一樣會被分成兩道, 打在 G1 和 R2 上.

我想說的重點在於, 因為 Bayer pattern 排列的 element 在 sensor array 上確實佔有不同的位置, 因此它卻實是有比 pixel level 更高的 "空間鑑別率". 即使 R2 element 收到的是來自 A 的一部份和 C 的一部份疊加, 它仍然有辦法立用 G1 及 G2 的資訊, 鑑別來自 A 和 C 的訊號. 這也是各家 demosaic 演算法最精髓的部份.

OLPF 並不是一顆一顆的 grid 把 Bayer sensor 四個四個 element 一組隔開來, 因此它會有比 pixel level 更高的空間鑑別率,這是我想說的重點.


文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 77)

今日熱門文章 網友點擊推薦!