andrea5 wrote:十年前的相機沒有包圍曝光需要調整一張拍一張 二十年前的底片機 Nikon F100 就已經可以自動包圍曝光了.https://en.wikipedia.org/wiki/Nikon_F100
jim80051 wrote:Median Stacking For Noise Reduction 阿怎麼會不懂,那跟包圍曝光也是一樣的原理,變化性的發揮,我 871 樓都已經貼給你看實際操作出來的 Median Stacking For Noise Reduction 了啦.https://www.mobile01.com/topicdetail.php?f=547&t=6206231&p=88#79471661我照片都貼出來了,你沒發現喔?你不知道 HDR 的同時還可以 Median Stacking For Noise Reduction ?你知道 Median stacking 是在幹什麼吧!你以為 HDR+ 不是建構在 HDR 的基礎上喔!你 HDR+ 講得天花亂墜結果我照片都貼給你看了你看不出來.......Median Stacking For Noise Reduction....AI 部自動幫你, 你有沒有實際操作過啊!
CP-9 wrote:阿怎麼會不懂,那跟包(恕刪) 既然您會用,那可見就是只會軟體操作,卻完全不知道運作原理。疊圖技術 ≠ HDR 兩者曝光時間差那麼多,原理也完全不一樣,您可以說兩者都是疊圖技術的應用,但要硬凹 HDR+ 跟 包圍曝光 一樣,我也是無法幫您下文引述「科普」Google Pixel 與計算攝影 PART1 - HDR+的原理傳統的 HDR 是拍多張過曝、欠曝、正常曝光的照片去合成,但這種算法會造成部分高光區域過曝、暗部過多雜訊,使的 HDR 演算法難以去做疊圖,造成鬼影…而 HDR+ 的原理是一次拍攝多張欠曝的圖片(9~15張),不同於傳統的 HDR 是由多張欠曝/過曝/正常曝光的照片所組成,Google 的 HDR+ 可同時保留高光及低光區域,再透過疊圖將暗部的雜訊移除至於手動做遮罩去鬼影,那屬於 Photoshop 遮色片修圖的應用,跟 HDR 技術完全無關HDR+ 嚴格來說應該是疊圖降噪之後再調整曝光,比較類似多框降噪功能結合自動亮度調整,有沒有覺得名詞很熟悉?這是 Sony 相機早就有類似的功能,只是相機還無法把亮度調整功能給加進來,如果兩個一樣,為何還要另外做一個 HDR 功能,所以您再凹下去真的沒意義。
MiPiace wrote:你的說法我是不太反對(恕刪) 特別用 5K 畫面新 iMAC 比了兩張圖這次看起來明顕是 xc1650 勝出,放大相片中的小人看, 有些臉部輪廓還在。雖然是 KIT 鏡,解析度並不弱,富士無爛鏡,是有些道理。不過 i8+ 開了 live mode,畫面也小一點, 也許畫質有些影響。要看清楚這些小人物 2400萬畫素還是佔了便宜。不過一般螢幕可能也看不出來。高解析大畫面,會讓高解析相片更細。但其實iphone 照片,在高解析下,應該是不會變難看的,我是覺得大體上也變好看。只是高解析相片的優勢顯現出來,被比了下去。要比對相片,是真的需要一台好螢幕。i8+,live photoXT2+xc1650