mm-lai wrote:
而單位面積越大,不就需要認知的時間比較久?
應該是這樣說吧??

小弟的想法是不管單位畫素面積多大
它就是一個零件
面積大受光多判斷會比較準確
面積小受光少猜測的成分多點
然後CMOS是色盲每個畫素其實都是透過RGGB濾鏡的灰階
中判因為畫素面積大受光充足可以把灰階切成很精確的16Bit
小判因為資訊不足只能切成比較不精確的12Bit
但是這只影響irontheone大說的輸出檔案大小
也就是irontheone大認為影響連拍速度的最重要因素
像A992 12Bit檔案的大小只有14Bit的一半
連拍速度自然可以往上加
千萬別跟豬打架,這只會讓你變髒,卻讓豬樂在其中。
irontheone wrote:
連拍速度只有兩個因素...(恕刪)

這個我知道啦!
有點還是沒釐清的是,同樣品質(14 bit,2000萬)感光元件大小,會不會決定資料處理?
其實不用說的文鄒鄒,輸出輸入的定義都不管,以用戶的角度來看,同樣品質,感光元件大小,會不會決定我連拍的能力?(連拍數及buffer量)
lml640707 wrote:

小弟的想法是不管單...(恕刪)



我想問的是,一寸元件可不可以做14bit輸出?
mm-lai wrote:
我想問的是,一寸元件可不可以做14bit輸出?

當然可以
要做到20bit都沒問題
只是當12Bit猜測成分可能就不少時
再做更深數據也只是灌水而以
千萬別跟豬打架,這只會讓你變髒,卻讓豬樂在其中。
G7X mark2是14 bit RAW

當潛電流,雜訊造成的電壓擾動大於adc的最小刻度
其實那些位元做了也等於沒用啦

mm-lai wrote:
我想問的是,一寸元件可不可以做14bit輸出?
diffusionless wrote:

其實不能怪甚麼,前...(恕刪)

我再仔細把您的說明看過一次,其實我們說的本來就是同一個東西,也跟賀老師說的是差不多的事情。
在這裡您把他用「影像形成」來說明,而我用「餵飽」訊號來解釋,其實是在說同一件事情。1公尺跟1mm當然會不一樣,這也是我用面積來解釋的原因。


只是好像都誤會到輸出這一塊了,如果輸出品質都一樣,資料量當然都一樣,而降位元數輸出,這當然就更好解釋了。


不過經過這樣的討論,也學到蠻多東西,感謝專業人士的意見,小弟受教了。


最後,對於即將發表的無反,小弟雖然意願不高,不過還是期待有令人亮眼的表現,畢竟廠商有競爭,消費者才有福利!


祝大家晚安!

mm-lai wrote:
我想問的是,一寸元...(恕刪)


賴醫師,

您對RAW檔12bit或14bit輸出可能有一點誤解,和TIFF不同,這裡的bit是代表光線通過RGB濾鏡後的色階深度,不是顏色數目。或許去除掉色彩,用黑白照來說明會比較清楚,12bit和14bit的差別,在於每個像素是4096灰階和16384灰階的差別,相差非常大。至於CMOS能做到多少Bit的輸出,則涉及晶㘣製作、成本和人眼極限間,取得一個平衡點。

mm-lai wrote:
這個我知道啦!有點...(恕刪)


大凡電子速度,要看体量,就是大家所知的『檔案』的大小。。
跟格式有甚麼關系?

而檔案的大小就像素和bit值兩個因素。
我明白你的疑慮。。
如果你不懂得以上我的說話,簡單回答你就是『格式不影嚮檔案大小』,這樣夠明白了?

lml640707 wrote:
當然可以要做到20bit...(恕刪)


lml640707兄,

多謝您在私訊中的分析,小弟慎重考慮買台A7系列接老鏡。

您說的沒錯,做到20bit一定是灌水,104萬色階吔!廠商如果敢這麼做,一定會罵爆。

benjamin6168 wrote:
賴醫師,您對RAW...(恕刪)


哎,班大,真是命運作弄人,起來尿個尿又看到您的回文,您那裡應該是早上吧?
我想您是資訊領域的專長,還是拚老命來答覆您一下好了......
所有人的重點,還是放在影像輸出這塊,沒有清楚我的問題點


(前言)小弟在研究所階段,做的正好是生物影像研究,所以正好對『光』有點粗淺的認知

顏色的三原色,RGB只是光波在不同波長焦段,你大腦所謂的認知而已





上面的圖應該是要三張圖,因為是RGB三個原色

利用分光及雷射激發,我們可以得到三種不同波長焦段的圖,來標定我們想要看的東西

經過電腦軟體處理,我們得到下面的圖




這也是一般人所『看到』的影像。

人體的視網膜就是扮演CMOS的角色,而大腦再去認知『影像』,其實跟相機原理是一樣的。

好了,那我的問題在哪裡?
多少相素?多少bit?其實都不是重點

重點在圖1&2到3的過程

簡圖說明
無標題 by lai01030342, 於 Flickr

我的問題只有在前端(紅筆處),即是D大所說的影像形成的過程而已,重點是,誰去認知那個叫做影像?誰把RGB三個訊號源轉換成你所認知的影像?
我想,答案就是處理器吧!? 只是這個工作是在CMOS的微型處理器或是CPU的晶片完成而已。

我的疑問就是這樣而已!
相同變因下,只有感光元件不同,訊號處理轉換的資料量會不會不相同?

對於問題,我習慣從原理的角度去找尋答案,或許推論會錯誤,但是過程會學到很多。
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 36)

今日熱門文章 網友點擊推薦!