看了新款的iPad Pro,突然理解為什麼iPhone11明明只有兩的主鏡頭,卻要設計的跟三鏡頭一樣有正方形相機區域

對於一家設計細節這麼重視的品牌來說
無非就是想統一設計語言
scott810523 wrote:
對於一家設計細節這麼(恕刪)

認同,從產品設計洗腦使用者而非從使用者意見調整設計xD
天使專屬 wrote:
我比較想要的是光學防(恕刪)

數位防震也有它的效能
就算有光學
你能說就不會有糊照?
重點是拍的人
Geek宅天下 wrote:
認同,從產品設計洗腦使用者而非從使用者意見調整設計xD
(恕刪)

真的
那些把蘋果設計元素照抄的Android廠商,
每一個都沒在聽使用者意見的!
這代又不是ToF...
lfjadsflk wrote:
iPad上的話其實還(恕刪)


跟處理器關係並不大,2018 年的 iPad Pro 用的 A12X 晶片就已經屌打 iPhone 11 系列的 A13,而 A12Z 又開了一核是完整的八核處理器,沒有理由照片處理比 iPhone 還差。
DeeJay Tecknit wrote:
跟處理器關係並不大,2018...(恕刪)


我忽然想到IPAD是不是沒有夜拍模式阿,當初iphone上是要有A13處理器才有這功能
那如果A12Z的效能比A13還要好那給個夜拍應該也不為過吧

如果ipad pro有ois跟夜拍功能以及超廣角鏡頭,那就能堪稱最強的拍照平板了吧

感覺各大廠都不太重視平板的拍照能力,平板面積大那麼多,應該能堆比手機還要好的料件上去
天使專屬 wrote:
當初iphone上是要有A13處理器才有這功能
那如果A12Z的效能比A13還要好那給個夜拍應該也不為過吧(恕刪)

應該不太可能


雖然A12Z的CPU多核效能與圖形效能的確是比A13強,
但是iPhone11系列的夜拍功能使用到A13裡面的神經網路引擎去運算,
單比神經網路引擎的運算能力,A12Z是不如A13的(畢竟是不同世代)

A12Z會強,你可以把它想像成是兩顆A12 去打 A13 ...

(注意:這只是譬喻)

單顆核心肯定是舊世代的比較弱,但是我兩個打一個,
只差一世代的CPU也很難贏...

但是演算法跟神經網路引擎的搭配,這是另一個世界,不能相提並論...
所以不只是夜景,某些使用到A13神經網路引擎的運算的效果,A12Z應該也是無法支援的...
(App開發者就會懂我在說什麼,例如:AR Kit3中的辨識AR虛擬物體與實景的前後景關係的功能...)

不過新版iPad Pro 多了一個ToF鏡頭,所以可能會在AR Kit4加上其他實現辨識的方法...(所以也不用太擔心)

但是夜景這點應該是沒辦法了~(這不是多一個ToF鏡頭可以彌補的)


也許有人會說那google的手機為什麼可以辦到...
我必須說,那又是不同的情況,
google手機能實現高畫質夜拍效果的理由與方式跟iPhone11用的方法是不同的...
而且google手機目前還不能達到如iPhone11般「認識」鏡頭到底拍到什麼,
所作出的照相補正是靠大數據+演算法算出來的...
(所以A,G兩家產品在不同攝影情況下會各有優劣...)

對iPhone11為什麼照相品質有大幅提昇的理由有興趣的可以看下面的影片:
(裡面有A13神經網路引擎到底在什麼地方發揮了作用的解說...)




不過,如果想要提昇新版iPad Pro的「夜拍」拍照畫質,
還是有解的,那就是使用NeuralCam Pro NightMode Camera這類的軟體,
透過強制的多張照片合成,也是可以達成夜拍畫質與曝光亮度提昇的目的,
但是畢竟不是使用A13神經網路引擎去運算的...,所以沒辦法達到秒拍的結果...
(運算出來的照片成品特色也會跟iPhone11拍出的很不同...,各有優劣~)
拍靜物與夜景,效果是可以比原本iPad pro內建相機要提昇的...

*這套App相機的運算方式「比較類似」Google手機的運算方法...
(也同樣的...比較花時間運算...)
剛好看到有關 AR 前後景的實測,似乎真的有支援

一切有為法,如夢幻泡影,如露亦如電,應作如是觀
liangcase wrote:
AR 前後景的實測,似乎真的有支援(恕刪)

有支援是不意外的
畢竟這就是ToF鏡頭的最大用處之一...
而且這次不是用「算出來的」,是用「測量出來的」...
期待未來更精確的AR呈現效果,與人像拍照效果...
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!