iPhone 11的Deep Fusion試拍 當真是細節神器嗎?


iPhone 11發表時,曾特別提到一個名為「Deep Fusion」的拍照演算過程,透過A13仿生晶片的神經網路引擎,結合機器學習,逐一處理畫面中的每個像素,優化細節及噪點,生成一張最佳成相。解釋裡囊括了目前計算攝影裡常見的幾項要素:神經網路、機器學習、合成演算、優化細節,聽起來很厲害,這功能蘋果預計秋季會透過軟體更新到iPhone 11上(應該就是10月份了)。
不過上週蘋果就先將Deep Fusion這個iPhone 11系列專屬的攝影演算法,推送給iOS13.2的開發版及公測版用戶,因此我們有機會可以在正式發佈前先測試看看這個蘋果口中「瘋狂的攝影算法」功力有多強大。

哪時啟動?

根據TheVerge(應該是引述於蘋果)的解說,Deep Fusion會根據你用哪顆鏡頭,以及拍攝時的光線自行啟動,條件是:使用廣角(1X)或望遠(2X)鏡頭,在中等亮度下拍攝時會啟用,若用超廣角拍攝則不會套用Deep Fusion,且因為需要A13的演算能力,因此這目前是iPhone 11系列專屬的功能。
至於中等亮度的範圍,有看到報導說是10~600Lux之間,但我一直沒找到官方文件來確認,不過大致是介於啟用夜間模式以上,到室內的亮度。

也是根據TheVerge的報導,不同鏡頭、環境亮度各自搭配哪些演算法,大致是:
廣角(1X):
● 明亮時使用SmartHDR
●中等亮度~低光使用Deep Fusion
●低光使用夜間模式

望遠(2X):
●非常明亮時會使用SmartHDR
●大部分光線下使用Deep Fusion
●低光時使用1X及夜間模式鏡在拍

超廣角(0.5X):
●都是使用SmartHDR,不會套用Deep Fusion或是夜間模式

這是我們為了要比較有無Deep Fusion的差別,而且拍攝時畫面上並不會顯示目前有沒有啟動Deep Fusion中,所以才要瞭解什麼樣的環境下會/ 不會啟動。
但對一般使用者來說,蘋果認為拍就對了,因為不管什麼組合,背後都有一個目前能做到的最佳演算法來提供成像,使用者不用去擔心環境亮度跟手持的問題,只要找舒服的光源、想拍的主題跟構圖就好了。

怎麼運作?

Deep Fusion也是透過多幀合成來優化照片,但更細緻的部份是,在按下快門前它會持續捕捉(或說保留)四張短曝光,以及四張標準曝光的畫面,按下快門時,則會捕捉一張長曝光的畫面。取短曝光畫面的銳利度,以及長曝光畫面的暗部清晰度,加上標準曝光的畫面,進行合成,並逐一處理個別像素,增加細節或是調節曝光,比方天空降低一點曝光,髮絲、皮膚、質料...等則取長曝光提高清晰度。與一般HDR分別調整亮暗部不同,Deep Fusion還會調整個別畫素。
而這一切在拍的時候都不會察覺,就跟一般拍照過程無異,也不會有轉圈圈時間,只有在拍完照,馬上點開看照片時,才會發現一個很短暫的清晰化時間。


試拍對照

我這裡以已經更新到iOS13.2,有Deep Fusion的iPhone 11,以及仍在iOS13.1,沒有Deep Fusion的iPhone 11 Pro Max來對照,但是我想讓大家盲測一下,點開可看大圖,把眼鏡擦乾淨吧
▼第一組
哪一邊可能有Deep Fusion?
答案
▼第二組
哪一邊可能有Deep Fusion?
答案
▼第三組
哪一邊可能有Deep Fusion?
答案
因為拍照當下並不知道環境亮度是多少,所以其實不太清楚iPhone 11到底有沒有啟動Deep Fusion,上面的盲測,我比較有把握,應該有啟動的,只有第二組,第一的戶外白天,跟第三的夜間,我其實不太確定有沒有Deep Fusion…所以猜錯或看不出來,並不是你眼力差
所以這是耍人的盲測嗎...不是,只要想交代,在我看了一輪照片後,也發現Deep Fusion的確在室內光線下發揮得最好。點開都可看原圖。
【室內,中等亮度】
有Deep Fusion
無Deep Fusion
人物這組非常明顯,放大來看看。分享前必須美顏...


▼這在180~200Lux間的亮度拍的,白天以窗戶餘光照明的室內。
有Deep Fusion
無Deep Fusion
▼這組接近5點半傍晚了。
有Deep Fusion
無Deep Fusion
▼這組天色更黑但還沒全黑,屋簷下有照明的環境。
有Deep Fusion
無Deep Fusion

【戶外明亮】
說是明亮,其實當時有微微的多雲。
iOS13.2
iOS13.1
iOS13.2
iOS13.1

【夜間低光】
拍這些時都有啟動夜間模式。
iOS13.2
iOS13.1
iOS13.2
iOS13.1

這樣看下來,在室內拍人物、傍晚、餐廳室內這樣的亮度下,差異尤其明顯。夜間低光照也有差別,但因為低光拍攝時都有啟動夜間模式,我不太確定是否跟Deep Fusion有關,還是單純iOS13.2又優化了夜間模式....(照理說啟用夜間模式後就不會套用Deep Fusion說...)

搞不清楚到底有沒有套用,這個我們來煩惱就好,對一般iPhone 11們的使用者來說,更新到iOS13.2後,室內拍照的細節就會更好,這是確定的。
可能有同學覺得動不動就用演算法,都不紀實了...但其實,iPhone 11的成像,即使套用了Deep Fusion這種每個像素都在算的演算法,還是蠻接近真實的,我並不覺得演算法跟真實是互斥的啦...
結尾離題了,總之iPhone 11系列的用戶們,可以開心期待iOS13.2的到來啦~
你才廣告你全家都廣告
2019-10-09 16:09 #1
Nanako0625 wrote:
iPhone 11發...(恕刪)


請問一下,如果目標有突然移動的狀態,會有疊影嗎?畢竟是多張疊圖。
發佈會上據說會逐個像素作比對 故此重影問題應該不大 短短數秒完成亦是A13處理器強大之處
hkc6389 wrote:


請問一下,如果目...(恕刪)
謝謝分享
Nanako0625 wrote:

iPhone 11...(恕刪)
Deep Fusion這個功能是讓細節可以更多,

很顯然是需要比較細節,才能知道效果的功能,

01圖床很爛沒關係,但整篇只有一張人物的有放大,

都不放大是要怎麼看..?
a25320176 wrote:
Deep Fusio...(恕刪)


M01有放原圖。可以自己比較原圖。
M01編輯都要同時完成多篇文章,不太可能100%四處裁切比較,
雖然這樣子比較是最直覺的。

要像我的分享文一樣,
一張圖做各種不同位置的100%裁切比較,
那是十分花時間的。
通常我一張圖裁切比較分析都要多花至少半小時到一個小時。

我相信也很少人會這麼辛勤的一張圖不同部位100%裁切比較了,
不過我好幾篇裁切比較文其實也沒什麼討論人氣,
未來應該也只打算放原圖不這麼辛苦了。

所以也不要說M01不裁切了,
就算我分享文花時間裁切一堆比較,
真的有在看的有幾個人?

大家只在乎有沒有曜光而已(攤手)

當然等正式版Deep fusion出來後我會直接拿來跟RX100M7比較。
當然是裁切100%比較,
跟一吋DC比這樣子比較會有感覺Deep Fusin有多強。

不過我猜猜,到時候應該討論的也不會太多~
或者是指責我測試有問題的人才會回。XD
pixnet的"海邊的天藍藍"
看來所謂的DEEP FUSION只是圖片瀏覽器?
hkc6389 wrote:
請問一下,如果目標有...(恕刪)

有短曝光的照片,應該還是有凍結的畫面可以打底,但如果它是從頭到尾貫穿畫面的動,我下午試試看。
你才廣告你全家都廣告
a25320176 wrote:
Deep Fusion...(恕刪)

點擊都可看大圖,上面的三組盲測對比也都可以點開看...
你才廣告你全家都廣告
yuxian wrote:


M01有放原圖。...(恕刪)

拿m7來比會不會太欺負iphone啊? 
感覺應該是海放
限制級
您即將進入之討論頁 需滿18歲 方可瀏覽。
提醒:內容可能因過於寫實、驚悚而令人感到不舒服,是否繼續觀看?

根據「電腦網路內容分級處理辦法」修正條文第六條第三款規定,已於該限制級網頁,依台灣網站分級推廣基金會規定作標示。
評分
複製連結