相機廠把輕巧好用的口袋機刻意在畫質和性能上閹東割西,想把所有用戶都推到獲利更好的單眼睛/反(於是相機就給人要好畫質就得花大錢的重裝備型態)
相機廠在面對對手的手機時,總是強調自詡的"畫質",卻不管大眾用戶想要的是甚麼
相機廠在今後必備的演算照相時,不能也不願發展精進,只能被動地讓銷量崩跌,主動地提升單價
(底片時代拍照可不是這麼辛苦的一件事~市場也沒畸形到逼所有人上單反)
相機廠認為,不惜一切花費時間精力的"畫質"是拍照的本質
但對大眾來說,不完美但能輕便記錄下時間的"回憶"才是拍照的真諦
於是也才多久,相機被主流淘汰,但相機不會消失,今後應該就成為專業及玩家等極小眾市場,就像底片與黑膠唱片般懷舊、儀式感的奢侈存在吧~

呂稀少 wrote:
總的來說,相機領域的...(恕刪)
拍照是一回事,
玩攝影是另一回事。
拍照不需要動腦筋,
啪啪啪啪啪,
手機就是最好的工具。
玩攝影是一種思考過程,
學攝影、上攝影課、讀攝影教材…
就是在教你思考,
焦距、光圈、快門、ISO…,
每個環節一直都在腦內交錯,
自己在控制著自己想要的是什麼。
手機就給你影像(照片),
但相機的重點是給你原始檔案RAW(數位底片),
這是最純粹的原始材料,
所有照片的故事都要從這裡開始,
玩攝影就是要掌握這個。
玩攝影有三大部分,
一個是相機,
一個是鏡頭,
一個是後期,
這些都是學問。
手機拍照也都是以這些學問作為基礎,
只是你不知道也不在乎而已。
或許你只在乎香料有多先進和科幻,
而沒有想過材料是如何出來的。
相機畫素有的高有的低,
這是視需求所設計的,
手機標榜個幾個億,
其實沒有什麼意義。
鏡頭有變焦有定焦,
有自動有手動,
為什麼大家都在買不方便的定焦鏡?
為什麼Leica手動鏡還要價幾十萬?
後期必需擁有原始資料才有意義,
但有多少人在手機上保留RAW做後期?
手機沒有嵌入相機的學問,
沒有嵌入鏡頭的學問,
沒有這些學問的RAW直言就是個垃圾,
後期軟體一開就傻了!


個人積分:1140分
文章編號:89369511
鼻屎大的塑膠鏡片跟單眼定焦鏡相比,就像平庸跟天生聰穎的學生,兩者的天花板是不一樣。平庸的努力補習也許偶爾可以考的接近聰穎不唸書的時候,但他的極限也就那樣子。
拍照窮三代,單眼誤一生。沒那個屁股真的也不需踏進這個坑,手機拍拍就好了!
https://backcountryjourneys.com/Why-Real-Cameras-are-So-Much-Better-than-your-Smartphone
https://pixelpluck.com/mirrorless-camera-vs-iphone/
https://www.kevinlj.com/camera-phone-vs-digital-camera-what-is-the-difference/

DannyHwang wrote:
單眼相機跟手機之於拍照,就好像煮菜靠的是食物的原味還是化學調味料。大部分人吃的都是化學調味的食物,並不是他們覺得這個比較好,就只是方便要求又不高罷了,我不覺得他們真心覺得化學調味料比較好。
單眼相機拍的是原料?
我笑了,跟人眼的高動態差距甚遠。
單眼不後製能看嗎?甚至高光有沒有過曝到沒細節根本看不出來。
很多時候甚至連暗部後製根本都拉不出細節來。
單眼拍不出的高光過曝在人眼看是很清楚的細節。
人眼也看得清楚單眼會變成剪影的人臉。
你確定世界是這麼存在的?
眼中真實的高光的地方會過曝嗎?
眼中低光的地方就沒細節嗎?
人眼的景深很淺嗎? 看人時後面會變糊嗎?
這不可能吧⋯
所以真正拍出非現實的是單眼。
單眼拍攝的很不現實。
你確定當黃光佈滿整個環境時,白紙跟皮膚的色調單眼不靠後製可以正確分區還原嗎?
單眼才是調味一堆東西的。
進入了PS,什麼都是用猜的、調的。
不在現場只好猜顏色。
但手機不一樣,手機用AI去做影像分割,然後加上環境光源判定做正確分區調整到符合實境。
色彩去正確的分割讓白平衡都適合的呈現,
黃光下不會矯正過白,也不會因為矯正不足導致色偏。

手機高光的地方取得人眼看得到的細節,
手機在低光的部分也儘量取得細節。
這些都靠AI的攝影分割跟多框判定可以去正確還原人眼所見。
手機才是還給世界一個正確的高動態跟正確色調。
在當下盡其所能的取得正確世界的色彩跟光線以及細節。
反而單眼拍的只是一個帶著不好的眼鏡,
然後加上偏光所看見的世界。
有著軟片模擬的假象。
單眼不知道正確的高動態、呈現不出正確色調。而只能亂調色(軟片模擬)的虛假照片(味精加很多)
直出只能猛加味精調色。
後製還是猜測然後憑空想像。(因為早遠離正確場景跟光線,根本無從判斷)
DannyHwang wrote:
鼻屎大的塑膠鏡片跟單眼定焦鏡相比,就像平庸跟天生聰穎的學生,兩者的天花板是不一樣。平庸的努力補習也許偶爾可以考的接近聰穎不唸書的時候,但他的極限也就那樣子。
你誤會了。我來幫你翻譯正確。
單眼就像是愚笨的學生操作著複雜器材,
而手機就像聰穎的學生去操作普通的器材。
聰穎的學生(AI)把器材發揮到400%(手機)
而愚笨的學生(落後影像晶片)把器材發揮到4%(單眼)
在直出方面往往落後,光靠器材彌補不出的差距,所以導致昂貴的器材銷量永遠贏不過。
因為買了這些昂貴的器材卻會附贈一個愚昧的學生(落後的單眼影像晶片)
愚笨的學生只會靠著有色眼鏡(軟片模擬)去取得分數。
愚笨的學生也只能靠指導教授(使用者)去張張修正成果(PS後製)
但因為指導教授不是當場操作器材機完成的,
所以成果都是非真實加料的猜測。(PS的假圖),反而創作了很多假照片。(拿回家只能用猜測的現場色調,或者創作出不存在的影像)(如高光過曝沒細節就只好用補假圖)
(現在的PS,已經可以做出更虛假的後製了)
baubaby wrote:
就是人像攝影但須表現出漸層式的淺景深的話,手機的AI後製目前應該還做不到吧?
安卓廠好像最近才跟上,
但iPhone一開始的人像模式就有注意到這點了
(人像模式屬於後製,但會先取得景深數據)
下面我是用iPhone內建的模擬景深下去示範。
你可以看一下餐盤由遠到近的景深變化。
也可以看看背景的模擬變化(模擬全片幅)
(黃框是對焦點)
模擬景深關

光圈F8

光圈F4

光圈F2.8

iPhone內建的模擬可是很注重細節上的改變。
如果用第三方軟體就沒iPhone內建效果這麼講究了。
下面是第三方軟體的效果
一樣模擬F2.8

(第三方軟體的破綻就一堆)
但第三方軟體可以去解iPhone拍攝時的隱藏資訊景深資訊。
所以雖然第三方軟體模擬的很差,但可以看到下面隱藏的景深資訊


這些資訊都是用數學去算出真實距離的。
並非猜測。
景深資訊很清楚的就是由近至遠都被分析了出來。
有了資訊自然可以做更細緻的模擬。
這樣你應該清楚為什麼手機要模擬這些並不困難的原因了。
如果蘋果模擬不出來這些,那麼Vision Pro就不會是當今最強MR設備。
蘋果的Vision Pro是直接靠計算下去縫合並建立起來一個3D虛擬實景。
早晚手機模擬的景深會隨著處理器的進步,
讓模擬的效果更逼近光學呈現。
(以上內容我會補上自己開設的主題文裡面)
還是相機比較好玩
手機就是手機
櫻花+蜜蜂
長焦高速快門微距飛版
高ISO AI降躁

OM SYSTEM OM-1 + M150-400mm F4.5 TC1.25x IS PRO 手持
800mm ISO102400 f/8.0 1/20000秒

千萬不要把Apple ProRaw DNG等同於RAW,LrC認證不能用AI雜色減少。
翠鳥
長焦高速快門微距飛版
OM SYSTEM OM-1 + M150-400mm F4.5 TC1.25x IS PRO 手持
1000mm ISO4000 f/5.6 1/3200秒 無裁切

貓
最吸引人的就是眼神
景深不需要模擬自自然然
只有眼睛清清楚楚
連鼻子都是景深之外
OM SYSTEM OM-1 + M.ZUIKO DIGITAL ED 12-40mm F2.8 PRO II 手持
80mm ISO640 f/2.8 1/400秒 無裁切

101
靠防手震不需要用到高ISO
OM SYSTEM OM-1 + M.ZUIKO DIGITAL ED 12-40mm F2.8 PRO II 手持
44mm ISO200 f/4.5 0.5秒 無裁切

蝴蝶
長焦高速快門微距飛版
OM SYSTEM OM-1 + M150-400mm F4.5 TC1.25x IS PRO 手持
800mm ISO3200 f/11 1/2500秒 無裁切

風箏衝浪
長焦高速快門
當天天氣不佳靠後製
1000mm ISO640 f/5.6 1/2000秒 無裁切

廟
這是白天不是晚上
用了LiveND
大白天手持用慢快門
拍風景不想拍人的時候就用LiveND
或者風景區拍人像可使用
只要被拍者不動
可以將所有的路人變模糊
考驗防手震的能力
24mm ISO200 f/4.5 2秒 無裁切

OM SYSTEM OM-1 + M150-400mm F4.5 TC1.25x IS PRO手持
756mm ISO200 f/7.1 1/3200秒 無裁切


相機拍的就是好看,不同焦段、不同主題、不同視角,可玩性好多了。

endlesslove731113743 [謝謝]相機就是好玩,不管前期或者後期都掌握在自己的手裡,相片要如何表現隨心所欲。


個人積分:1140分
文章編號:89377899
為提供您更優質的服務,本網站使用cookies。若您繼續瀏覽網頁,即表示您同意我們的cookies政策。 了解隱私權條款