未來的iPhone相機功能將不再取決於鏡頭




10月9號,Google發表了一個號稱iPhone殺手的新手機Pixel 3、Pixel 3 XL
這台號稱透過人工AI幫使用者快速辨識拍照的人臉、眼神及動作是不是最棒的一瞬間
這的確是非常有用的功能⋯
,但是號稱超越iPhone,那個輕易秒掉iPhone,我想這個有點誇張了。

iPhone XS發售後,iPhone XS的相機功能被有些人說「美肌」過了頭。其實這個功能不是美肌,而是系統消除雜訊所產生的副作用
如果用過iPhone X的人都應該知道iPhone X的夜間抗噪效果還算不錯,但是其實抗噪功能也就是透過系統運算下,將不必要的雜訊給剃除掉。

簡單來說,現在iPhone的相機解析度已經到了不可思議的1200萬畫素,事實上如果要實際輸出4*6的相片,只需要300萬畫素即可,不需要到那麼高的畫素解析度。

很久以前,我寫過一篇文章說明為什麼iPhone堅持300萬畫素(當時很多家手機廠商都使用500~800萬畫素的相機鏡頭),那時候是網路環境為3G時代,未來方便傳遞最剛剛好的照片在最快速的時間內,所以iPhone使用300萬畫素,而時代變遷,現在不再是網路速度限制的時候了,4G甚至未來的5G,高速的網路傳遞速度根本不在意照片本身檔案大小,而是開始在意起照片本身的價值。也就是照片本身拍的好不好、漂亮不漂亮?

而高畫素的鏡頭可以讓iPhone可以掌握最大範圍的資訊,然後透過系統及硬體的協同作業,讓每一張照片越來越有專業照片的架勢。不需要帶單眼也有漂亮的景深,甚至透過A12 Bionic的CPU運算讓每一張照片更有其魅力。

這一點Google大概明瞭,Apple跟Google最大的差別就是Google擁有了Google Photos大量的照片資料庫,也提供了Goole AI辨識使用者的照片那些拍的好?那些不太好的養分。而Apple也不是省油的燈,雖然目前沒有Google這些功能,但是擁有的拍照美感大概跟工程師取向的PIXEL 3大概會有所不同。

結論就是,未來iPhone除非必要(如需要更廣的鏡頭或是更長的鏡頭),不然大概可能會停留在雙鏡頭或是1200萬畫素一陣子,加強Bionic對於照片美學的評估及美化(非美肌,比較類似消噪及HDR功能),「AI」大概會是Apple跟Google決定相機未來的勝負。