這是我目前看過爭對"NEW ONE相機"畫素最專業的介紹和解釋!(謝謝您分享)
也因為很專業,很難得沒看到酸民的言論感到非常欣慰,
雖然我像多數人一樣不太懂這些專業術語,但也很努力看完了所有網友們的回應,
不論樓主的解釋是否有些誤導,後面那些吹毛求疵其實外行的人們只是想看"結論"
而出發點很簡單表達的就是:這項改變確實有效提升照片品質。
就這麼簡單,雖然追求精準正確是好的,但也不應模糊了原先的出發點。
這是目前所有手機相機部分的一大改變,也能稱為是一種「冒險的躍進」。
HTC再行銷這塊是超弱的,這也公司形象有些間接關西,
在台灣不少消費者用眼睛解讀事情,本來對HTC沒興趣的人看了"400萬畫素"頭也不回的走掉,
沒有"心"的人是不會花時間在收尋真相的,例如不會特別上網找這篇解釋像素的好文章。
bv2fb wrote:
但為了做出特殊夜視型彩色攝影機,我們將紅外線濾光片做成可電動收放
白天蓋上,防紅外線,看彩色影像,晚上打開,再用1100nm 紅外線燈補光照明。
然後利用 RGB 單元中的 R 單元取出影像,因為紅色濾膜之紅外線延伸波長穿透性幾乎可達 1300nm。
正好是人眼快不可見,攝影機仍可見之波長。所以可以拿彩色 CCD CMOS 來當紅外線夜視功能。
下次女生經過紅外線照明燈,及軍方營地時要小心。
這種實驗,如果採用的是俗稱 400萬畫素之 CMOS,因為只有 R 紅色能感應所以只剩 100萬畫素有輸出。
好玩的來了.........................................
除掉紅外線濾光片同時,低通濾光片也一併被拿開。
如果這時將 DSP 由彩色專用型改為黑白專用型會怎樣呢。
這時攝影的解析度就提高為400萬畫素黑白攝影機了。
而且還是超高動態的,因為 RGB 濾光膜對亮度之衰減不同。
以上都是胡說八道的。 請勿相信。
好! 各自裝沒事散開, 本文將於你看過後自行燒毀消失。
這段跟實務有點差距,
實際上大部分廠商是把LPF "黏在" sensor上面,然後用機械式的IR-CUTfilter,在進入 night mode的時候才蓋上去,
跟樓主說的不太一樣,特此說明。
所以像我前前東家,跟這些供應商買來sensor的第一件事情是請其他廠商把LPF黏上去,
至於波長要多少,原廠的手冊都會有建議值。
這個應該是我回的最後一篇了,給樓主一個衷心的建議

Simon_shih wrote:
左上是原始的資訊,我們假設RGGB可以拿來當黑白的全畫素錄記
中上是byer pattern的排列方式,
左下是把兩圖貼合在一起, 我用來記算色彩資訊
中下是色彩結果, 就是因為參考相鄰色點, 所以有不止變粗, 還有一些奇怪的顏色跑出來了
最後右下是把亮度跟彩度合在一起,像我這樣(右下)貼會變成紫邊,貼偏一點又變成綠邊了
...(恕刪)
這是順著樓主邏輯走所會落入的坑,但是忽略了很多現實:
1. Bayer轉RGB,方式絕對不只一種。從最基本的Bilinear interpolation、Gradient Based interpolation、High Quality Linear Interpolation、Non-Adaptive Single Channel Interpolation、Edge-Directed Interpolation、Constant Hue Interpolation.....等等一堆,還有各家廠商專屬的演算法,把Bayer像素四個四個一框代表一個pixel?那是映像管/LCD的思維,一開始就錯了。
http://www.cs.washington.edu/education/courses/cse467/08au/pdfs/lectures/09-Demosaicing.pdf
http://www.unc.edu/~rjean/demosaicing/demosaicing.pdf
2. 其次,手機鏡頭是拿來拍照跟錄影的,絕對也跟YUV/YCbCr色彩領域脫不了關係,有哪一種常用數位視訊壓縮標準是直接用RGB資料去壓縮的?照相存檔的JPEG也不是!就連老三台的類比電視,也不是傳輸RGB信號。
3. 在設計Bayer轉成YUV/YCbCr的過程,如果要用Bayer的四百萬畫素,依樓主說法,需先插補增加點轉成RGB各四百萬畫素,然後再轉成YUV/YCbCr,然後再減量取樣成H.264/JPEG所需4:2:0的Y四百萬畫素,Cb/Cr各一百萬畫素,過程中得先生出一堆資料(RGB插補),然後再把資料丟掉(減量取樣),中間耗用了多少多餘的buffer,多少額外的計算量?造成的處理latency呢?這樣的設計方式及格嗎?一直拘泥在Bayer必須變成RGB各四百萬畫素,但是由於這過程是"插補點"而來、因此是無中生有的這一點上,何必呢?
4. 在學界跟業界實務上,如果輸出的需求是YUV/YCbCr,都有Bayer直接轉成YCbCr的快速演算法、同時降低buffer使用量/計算量/計算latency的設計方式!真的要討論SNR、輸出結果失真率,可以在這個流程上去探討。
5. 樓主可能是從CCD/CCTV年代開始、熟知感測器歷史跟應用的業界老前輩,但現在設計一個應用(數位攝影/照相),那是一個系統,必須針對整個光學設計 -> 感測 -> ISP/DSP處理 -> 視訊壓縮演算法,甚至視覺心理學,進行跨流程階段整體考量跟最佳化,不要一直只在前段的感測器RGB領域打轉,即使是將感測器用在較專業的數位化安控/監控/IPCAM/NVR領域,道理也是一樣的,現在已經漸漸不是CCTV閉路攝影機/類比傳輸/錄到錄影帶/Betacam的安控年代了.....如果數位信號處理只是簡單的像素加加減減配上平均運算就可以完全搞定,那麼一堆厚厚的數位信號處理教科書,又是在教些什麼呢?
SideWheel wrote:
這是順著樓主邏輯走所...(恕刪)
樓主的文章真的錯誤還不少!
首先,為什麼要有RGB個別的排列,是因為 無論 CCD ,或是 CMOS sensor 只能感受光強度去改變電壓值!
這個電壓值經過A/D 轉換就是 數位光強度的資料.所以說都是大色盲.所以必須在sensor 前面再貼上濾光片!
當然可以一個Pixel 裡面塞三個濾光片,三個sensor!然後就做成原生 RGB ,不過這樣有兩個缺點!
原本一個pixel 的進光量現在要一分為三.削弱的進光量會影響成像品質還有半導體設計困難 !
20M pixel 要 塞入 多三倍 的 sensor ,還有後面的A/D.......
還有,那個不叫補差點
.補差點就是 原先是2M 的照片 ,利用補差點技術將2M pixel 照片 變成更高畫素的照片 !將 RGB Raw data 變成 我們可以看的照片 ,那個叫做套色演算法 ,就是參考左右上下pixel 的顏色值將原先應該是彩色的資料給還原!!!!
SideWheel wrote:
4. 在學界跟業界實務上,如果輸出的需求是YUV/YCbCr,都有Bayer直接轉成YCbCr的快速演算法、同時降低buffer使用量/計算量/計算造成的latency的設計方式!真的要討論SNR、輸出結果失真率,可以在這個流程上去探討。...(恕刪)
這裡有點要說明一下
雖然數位影像處理為了要降低資料量,而採用YUV(這是為了相容黑白電視開發的。如果是生手,光看你先前陳述,會以為這是什麼高段的技術優於RGB而開飛),但這並非表示大家從頭到尾在跑YUV
會這樣說的原因在於,Sensor是IC廠商提供的,Raw Data處理DSP晶片又是另一家公司(例如HTC有自己的Imgage Processor),最後輸出成特定圖檔又是一家公司的產品,這還不包括Super Resolution的流程計算
除非廠商之間都講好,一個格式從頭套到尾,不然YUV和RGB互轉是很常見很正常的。更重要的是YUV和RGB互轉這個動作的速度,也是評估一顆APU效能的重要指標(只是消費者不會感覺到就是)




























































































