(本文已刪)-勿點- iPhone 攝影時代 | 計算攝影之簡易說明

yuxian wrote:
我再說一次,誰再贊同二樓吉姆林的加分,我一率黑單~


我贊同吉姆林, 你黑我好了
yuxian
抱歉.黑名單滿了...我沒錢買VIP會員 (攤手)
crossmatch
那大家 Happy Sunday, 就此收手, 不再回覆了
Wahaha214 wrote:
他沒說錯https:...(恕刪)

你都知道引用這篇文




沒原始圖片哪來Input Image?


沒原始圖片,進行二值化後跟後面條件,你要怎麼捲積?
yuxian wrote:

mariase
https://www.cool3c.com/article/185401 這邊高通的宣傳圖解可能比較清楚一些


Snapdragon 8 Gen 2 的 Snapdargon Sight 透過稱為 Hexagon Direct 的技術,使具備 AI 運算的 Hexagon DSP 不用經過 CPU 直接與 Spectra ISP 相通,能將 AI 介入即時影像辨識,在處理完前端 30 幀影像的合成處理後,可透過語意分析的方式拆解影像的元素,最多可分為 6 個圖層,藉由拆解出不同特質的圖層加入最佳化處理,再將圖層進行合併,使照片不再是套用單一的影像增強方式,使照片中的人、景、物甚至是五官、頭髮等都以最合適的方式進行影像增強處理。

處理30禎,所以1/30之後更慢的快門,他是處理還是不處理?
這是一次擷取還是合併處理?
ken902 wrote:
在處理完前端 30 幀影像的合成處理後,可透過語意分析的方式拆解影像的元素,最多可分為 6 個圖層,藉由拆解出不同特質的圖層加入最佳化處理,再將圖層進行合併,使照片不再是套用單一的影像增強方式,使照片中的人、景、物甚至是五官、頭髮等都以最合適的方式進行影像增強處理。

處理30禎,所以1/30之後更慢的快門,他是處理還是不處理?
這是一次擷取還是合併處理?


欸......突然發現那段話不是我留的.....
怎麼會引用我的ID

但我要打破自己不回文的承諾了 = =!
估計我不回也沒人知道怎麼回

先看下面的圖,



這是計算攝影按下快門"當下" 就將以上的畫面進行多畫面合成~
上面共有12個圖層,在計算攝影裡面這是即時拍攝跟演算的~
也可以看到語意分割的圖層~
因為都採取電子快門,也因為要擷取多張,所以多張快門速度都是不一樣的
但基本都是以高速快門為主,也就是欠曝的照片進行演算為主。

但也因此,所以不可能有一個"單一"的快門速度....(這就是為什麼我說看EXIF根本不準的原因)

要做到即時的多張畫面分析跟擷取,
就需要依靠極快的電子快門跟光達以及CPU/GPU/NPU同時運作~
圖像處理/AI單元都是全力作用。

當然如果快門壓下才擷取這麼多照片,基本上是來不及的,
也就是說當一打開相機,就開始進行拍攝了...(不停地進行拍攝照片)
這些都是放在緩衝裡面~

當使用者構圖好,按下快門的當下,就馬上取出緩衝的照片進行縫合輸出~
(或者將縫合好的直接做輸出)
然後這是一個鏡頭的處理..12幀影像

可是其實像3鏡頭的狀況,
為了保證使用者3顆鏡頭無論怎麼用都可以順暢變焦跟有縫合準確以及白平衡做統一。
(因為3顆鏡頭不同焦段甚至不同感光元件,可能還不同公司的產品,當然有各自的"本身發色")
而次世代相機就以1顆鏡頭當作準則 (如主鏡頭模組),然後進行另外2顆鏡頭模組的影像發色平衡...

所以每個鏡頭都是一直在拍攝12幀影像並且隨時在處理。
3顆鏡頭就是需要同時處理36幀影像

也就是說,就算是Snapdragon 8 Gen 2可以同時處理30幀影像畫面,
那麼3顆鏡頭就是每顆鏡頭只能及時處理10幀...

高通有示意圖

30幀並非1/30s...
而是一次可以立即處理30個畫面的演算...為了讓使用者不會有按下快門後卻在等成片...
處理器是全速背景運算的.....

而可一次拆解成 8 個圖層的意思是指語意分析去分割時,
最多可以將上面30 幀影像的合成處理後的單張影像再弄出8個圖層去處理。

同樣高通有語意分割的示意圖

語意分割

這是目前次世代相機處理器的能力

所以我一直說明的就是
看單張快門速度沒有意義..(因為早拍了一堆快門速度不同的照片下去處理)
看分區測光沒有意義 (最基本的測光早就做好了.重點是之後的語意分割下去處理)
看單一白平衡準不準確沒有意義(語意分割早就分開處理了)

所以按下快門的單一張照片,
其實早就進行了十幾張拍攝後再來分割處理,進行複雜的演算後的結果

這也就是為什麼當打開相機app時,雖然一直沒有拍攝動作,
但發燙的程度卻跟玩大型遊戲一樣的燙....
這也就是為什麼拍沒幾張照片,也就很快沒電了

所以處理器越新,使用體驗會越好,
舊機跟舊處理器,可以處理的張數就少的可能...(還無法三鏡頭連動)
不管是快門延遲或者是拍攝成果,都會遠遠不如新處理器....

===
我要繼續翻攻略了....我王國之淚卡關了
===
google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
yuxian
是不是多餘,其實看市場主流吧....多餘的產品不會有人用的
featheringer
在6000cc V12引擎面前,渦輪跟馬達也都是多餘的…嫌耗油你怪我囉?沒錢加油就不要追性能,還不簡單XD
yuxian wrote:
欸......突然發...(恕刪)
生死只是件閒事
yuxian wrote:
欸......突然發...(恕刪)


各別擷取難道沒有時間差?
即使你要講到一個鏡頭10禎,那動態物體會有多少偏差?

是1禎的影像,同步複製跟二值化後座捲積後處理合理。
還是你們堅持當下就處理完合理,可以好好想一想。
ken902
featheringer 你的話,就是"修",這跟攝影還相關嗎?
yuxian
可以去看看谷哥技術文件裡面談的是不是攝影(裡面也有談到怎麼利用機器學習去猜白平衡)....https://reurl.cc/MRqe2K
ken902 wrote:
各別擷取難道沒有時間差?
即使你要講到一個鏡頭10禎,那動態物體會有多少偏差?

是1禎的影像,同步複製跟二值化後座捲積後處理合理。
還是你們堅持當下就處理完合理,可以好好想一想。


其實我不想對這些多做說明~
因為事實就是如此...(其實解釋不完的,因為技術內容太過於龐大)

但是谷歌很大方...在4年多前有稍微提到過夜視怎麼實現這種拍攝工程...
不過文章內容十分龐大,建議自行去閱讀
夜視:在 Pixel 手機上看到黑暗
我很建議先去閱讀這段技術文章。
看完之後你就會知道手機廠商在攝影這方面涉略有多深了。

真的不要小看手機廠商在攝影上面的努力...
這還是4年多前的技術喔....


CPU/GPU/NPU運算硬體+廠商相機實驗室的AI軟體+相機硬件廠的配合
成為今天這個影像科技

影像科技以你想不到的速度進步到目前狀況了....


但有一個很久的一段文章我可以引用給你參考來源
"Night Sight 計算鏡頭中物體的運動向量以使用標準化來處理模糊現象。因為長時間曝光中很容易產生模糊,所以智慧手機可以從其他鏡頭中取出銳利的部分並將它們堆疊起來以消除模糊的部分。"

這已經很久以前的文章了(茶)...
現在的AI技術運算更多項目了...例如也會預判物體的動線

谷歌算是比較大方的,會公開一些技術內容。


另外軟硬件結合部分
我引用Cool3c的採訪高通內容來源
"Sony 半導體解決方案部門在 2021 年的 Snapdargon 峰會宣布與高通 Snapdragon 深度合作,
由 Sony 技術人員進駐高通實驗室,針對 Snapdragon 平台特性與元件特性進行調整,
使元件能夠發揮其最大效能;

Sony 代表 Michiki Mikuriya 也在此技術說明登台解說雙方合作的成果,
此次公布兩款具備 Sony 新一代四重曝光 HDR 技術的 Sony IMX800 QDOL4 1/1.5" 元件與
Sony IMX989 QDOL4 1" 元件已與 Snapdragon 8 Gen 2 進行最佳化,

其 QDOL4 四重曝光 HDR 技術是借助元件在一幀時間捕捉四種不同曝光的影像後進行合成,
使 HDR 的對比與細節更為細膩,

同時也預告 Sony 感光元件新品牌 LYTIA 的新產品也將與高通深度合作;
另外, Sony 在感光元件的主要競爭對手三星也藉此次 Snapdragon 峰會宣布
成為第二家針對 Snapdragon 進行元件最佳化調整的感光元件供應商,
三星已將最新的 200MP 元件 ISOCELL HP3 與 Snapdragon 8 Gen 2 進行最佳化調整。"
google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
yuxian wrote:
但有一個很久的一段文章我可以引用給你參考來源
"Night Sight 計算鏡頭中物體的運動向量以使用標準化來處理模糊現象。因為長時間曝光中很容易產生模糊,所以智慧手機可以從其他鏡頭中取出銳利的部分並將它們堆疊起來以消除模糊的部分。"


內文講的不就是多張合成這回事嗎?
計算攝影到底是真實影像還是合成編修?


為什麼攝影要講到RAW,是因為他就是當下那個快門那個時間點的最大資訊。
是真實到可以證明是真有其物。

原本有的沒有,沒有的卻出現,你們稱這叫攝影?
你們可以好好想一想。
yuxian
.................
mocca6361
他們不會在意這種攝影本質上的問題的,所以不用多費唇舌了
.
google "標題 + yuxian" 或 "yuxian.yy" 有非常完整評測
yuxian wrote:
Night Sight 計算鏡頭中物體的運動向量以使用標準化來處理模糊現象。因為長時間曝光中很容易產生模糊,所以智慧手機可以從其他鏡頭中取出銳利的部分並將它們堆疊起來以消除模糊的部分。

Google NightSight(現在稱之為夜視模式)就是當初完全打破我攝影觀念的技術…原本在我看來,手機你想搞什麼低光夜拍?說破嘴還不就一條路:ISO衝到爆炸,然後再抹得他媽媽都認不出來,這種毫無實用性的"技術"有什麼好宣傳的?
結果第一張樣本放出來我完全傻了,你跟我說這是1/2.55"拍出來的低光照片?這到底是打了針還是吃了藥?
後面大致了解以後才發現,原來手機衝算力也可以是為了遊戲以外的用途,不然我這不玩手遊的人早就對手機麻痺兩年沒換機了,整天衝算力拼跑分到底在幹嘛…Google你好樣的,下一步是什麼?學天文攝影疊圖拍星星嗎?結果Pixel4還真的給我出天文模式,傻眼再傻眼

應該這麼說吧,不可否認手機在面對現有更大硬體規模的相機面前,的確還有太多的限制…而且要命的是手機本身的定位注定了它即使想擴大硬體規模,也必然遭受重重阻礙,了不起給你1吋就頂天(結果1吋塞手機這事來得比我想像中快太多
但是手機廠的思路確實跟相機廠完全不同,硬體他們的確有在擴充,但軟體才是他們的主戰場…你說手機這樣算不算後製?要我說,算也不算,毫無疑問它們在轉出最終JPG以前做了一大堆的處理,但是對使用者來講基本上就是無感,你按下快門前它們早就做好一堆處理流程,按下去以後可能只剩全解析度的輸出而已,你唯一做的事就只有按快門
跟相機正常的後製流程把這些東西要全部搬到電腦上不同,你必須依照自己的想法對這些素材各種調,甚至要動用好幾個軟體調了再調…我覺得這才是真正意義上的後製,因為每個人想法不同,同一張檔案素材有可能兩個人調出來的天差地遠…手機則雖然也一定存在差異,但是在同一款機型的同一個場景裡面,隨便幾個路人甲乙丙拍出來的基本大差不差

當然你要堅稱這不是原始影像,我也OK可以接受,但是在手機這樣的硬體之上,我覺得你去追求所謂的原始影像就只會達成自廢武功這個目的…那是現在手機已經做到1吋了,以前片幅更小的時候會更嚴重,RAW調出來光是那個超高畫素密度帶來的超低動態範圍,絕對夠打消你修RAW的念頭
先不說這樣的意義到底是什麼,你真想要原始你也可以滑過去M模式,只要你不是iPhone或Pixel系列機種的話
yuxian
之後交棒給你說明了....我先潛水....有夠累
featheringer
如果不是太嚴重的跳針的話,我盡量…
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 38)

今日熱門文章 網友點擊推薦!