手機拍照并不能「秒」單反,但是差距正在逐漸縮小。
導演陳可辛最近幫蘋果拍了一部廣告片《三分鐘》,片尾的「iPhone X 拍攝」引發了不少爭議,因為這次拍攝陳可辛用到了大量外設:比如長焦鏡頭、無人機、OSMO 手持云臺。
陳可辛的這次拍攝擊中了大部分人心中的痛點:
與專業的單反和微單相比,手機攝影經常還是那個「甘拜下風」的落敗者。
通過這短短的三分鐘,或許你已經對手機拍照這近五年來的發展和表現失去了信心。但實際上,2012 年以來,手機廠商們「絞盡腦汁」,用上了各種改善手機拍照成片效果的方法。手機拍照與單反的差距正在逐漸縮小。
根據 DxOMark 的統計,從最早的諾基亞 808 到今天的旗艦手機(比如Google Pixel 2、iPhone X 和三星 Galaxy Note 8),蘋果、三星和 Google 手機的圖像質量和視頻性能逐代上升,成片效果越來越好。
本文梳理了蘋果、三星、Google 和華為的旗艦手機是如何提升拍照的質量,讓你在購買某一款手機之前,就對它的拍照水平有了一個詳細、全面的參照系。
「漆黑一片」還是「噪點爆炸」
要想說清楚具體某一款手機的拍照水平,首先需要建立一個評價照片質量的指標體系。根據 DxOMark 的評價體系,照片質量的優劣主要由紋理和噪點、曝光、自動對焦、變焦質量和散景效果這六大指標決定。
其中噪點和紋理對照片觀感影響最大,尤其是夜景——拍照水平不及格的手機常常表現為「漆黑一片」或者噪點特別多,比如這樣的:
為了減少噪點,提升畫面純凈度,同時兼顧夜景的亮度(亮度太低,畫面也會損失大量的紋理細節),無論是相機還是手機,最常用的方法是增加圖像傳感器尺寸來改善相機的光線捕捉能力和圖像質量。
瓶頸——傳感器尺寸
但是更大的傳感器尺寸對于設計輕薄化的手機來說是一個很容易達到的瓶頸——手機內部留給相機模組的空間就那么點大小,很難塞得下更大的傳感器尺寸了。這條路基本上被堵死了。
另一種辦法是長曝光——用較低的快門速度增加進光量,比如 Android 手機相機 UI 普遍提供的手動模式,你可以手動調節 曝光時間和 ISO。這樣拍出來的夜景的確很「光滑」,亮度也能達到「夜視儀」的水平。但前提是你需要一個三腳架,而且拍攝的物體最好是靜止不動的——8 秒的曝光時間非常容易拍糊。
用手機拍個照不僅要帶著三腳架,還要等上個 8 秒甚至半分鐘,這可以說是用戶體驗的巨大倒退了,也違背了手機輕便化的初衷。
「力挽狂瀾」的降噪算法
目前主流旗艦手機的解決方案是算法,具體到低光照片的專業名稱為時域降噪 (TNR),結合多幀圖像數據以增加拍攝時累計的曝光時間。合并多幀圖像來消除噪點。
以 iPhone 5s 以來的歷代 iPhone 為例,iPhone 6 的成像硬件與 iPhone 5s 相同,但它的噪點和紋理都比前代產品好。主要的原因是 iPhone 6 配備了蘋果的 A8 芯片,與 iPhone 5s 的 A7 處理器相比,A8 具有改進的圖像信號處理器 (ISP)。DxOMark 提供的 5 勒克斯低光照片顯示:從 iPhone 5s 到 iPhone 6,照片細節的增加非常明顯,就像是你看騰訊視頻的時候清晰度從標清上調到高清的差別。
降噪算法不只是會讓「差的變好」,如果沒優化好,也會讓「好的變差」
比如新一代的 iPhone 7 Plus,相比前代,iPhone 7 Plus 的像素更高,鏡頭光圈更大,而且配備了光學防抖。但在細節方面,它和 iPhone 6 并沒有太大的差別。因為蘋果為了使iPhone 7 Plus 的噪點少于 iPhone 6,調整了 iPhone 7 Plus 的圖像處理參數。
降噪算法「坑隊友」的情況到了 iPhone X 這一代得到了改善——iPhone X 得益于改進的時域降噪算法,噪點比 iPhone 7 Plus 低,而且擁有更豐富的紋理細節。
歷史總是驚人的相似——同樣的「坑隊友」也曾發生在諾基亞 808 上。而且這位「前輩」其實更冤,因為諾基亞好不容易往手機里「塞入」了一個傳感器尺寸高達 66 mm2 相機模組(即使是 2017 年,市面上尺寸比較大的傳感器,比如華為 Mate 10 Pro 也只達到了 29mm2),最終的成片效果卻被算法坑了,甚至還不如傳感器尺寸只有 18mm2 的 iPhone 5s。
雖然諾基亞 808「底大」,但是諾基亞工程師只是簡單地移植了之前用于較小圖像傳感器的曝光策略,最終在 1 勒克斯的極低光下拍攝的樣片是這樣的:
「車禍現場」的諾基亞 808
自動 HDR
白天拿起手機拍照的時候,在有藍天和風景的情況下,如果你想拍清楚風景的暗部紋理,需要點擊屏幕把測光的焦點對準要拍的風景。這種場景下拍出的照片,藍天有很大幾率過曝或者偏色。不斷優化的 HDR 算法發揮了作用,你在這種高對比度場景也能拍出比較藍的天空。
自動 HDR 早在 2010 年的手機就有應用,但是直到 2013 年發布的 iPhone 5s,自動 HDR 優化的也并不好。由 iPhone 5s 拍攝的樣片可以看到藍天,但天空的色彩仍然比較偏 青色而非藍色,而且最亮的高光位區域仍然出現了一些剪貼紋理。到了新一代的 iPhone 7 Plus,自動 HDR 已經能夠完美地保留天空的色彩,而且 iPhone 8 Plus 也使陰影變亮了些,以便在非常黑暗的前景區域中還原出一些細節。
「逆光也清晰」——這可能是 vivo 最成功的廣告詞之一,借用這句廣告詞可以很形象的說明自動 HDR 的另一功效:改善逆光人像。
每年 HDR 算法的升級也在不斷提升逆光人像的拍攝效果。iPhone 8 Plus 還增加了人臉檢測功能,人臉和背景的圖像細節變得更容易兼顧了。
人像模式
說到拍攝人像,由 iPhone 7 Plus 帶動的手機拍照潮流是雙攝像頭加持的「人像模式」。有了這個功能,你再也不能像以前那樣,簡單的以有沒有人像的背景虛化來區分照片是單反還是手機拍攝的。
如果你有女朋友的話,一臺有人像模式的手機可以說是必備品了。
手機廠商們的背景虛化目前分成了三大流派:以蘋果為代表的「廣角+長焦鏡頭」的雙攝派,以華為為代表的「雙廣角」派,以 Google 為代表的單攝像頭派。
其中 Google Nexus 6P 和 Pixel 僅通過單攝像頭就可以實現人像模式,可以說是真正體現了 Google「用數學拍照」的強大實力。不過與雙攝像頭的 iPhone X 、三星 Galaxy Note 8、華為 Mate 10 Pro 相比,還是不夠完美。
根據 DxOMark 的測試,Google 這種單攝像頭實現背景虛化的方法是在不同的焦點設置下快速連續拍攝幾張照片,然后合并拍攝結果。比如 Nexus 6P 在攝像頭稍微向上移動時拍攝了一系列照片,由此產生的景深圖經常會出現一些錯誤。
蘋果和華為代表的另外兩個流派目前的旗艦機都能很好的實現背景虛化,不過 Mate 10 Pro 的「雙廣角」在焦距上有些吃虧。Mate 10 Pro 的景深模式采用等效 35 mm 左右的視野來拍攝人像,這并不是典型的人像焦距,無法拍出與配備了等效 50 mm 副鏡頭的 iPhone X 完全相同的人像照片。
「三大流派」需要改進的依然是夜景,在昏暗的環境中,所有的圖像都出現了大量的亮度噪點,這在人像的膚色上尤其明顯。
視頻防抖
陳可辛在拍攝《三分鐘》的過程中,最為重要的外設之一是大疆 OSMO 手機云臺。那個小男孩在人群中穿梭,奔跑著找媽媽的那段就是導演把 iPhone 和云臺固定在小男孩身上拍出來的。
其實,如果不是劇烈奔跑的場景,只是日常生活視頻,比如最近很火的 Vlog,一臺有視頻防抖功能的手機也基本夠用了。
視頻防抖是一個需要手機軟硬件高度協作的系統,除了目前旗艦手機標配的光學防抖,更早的集成陀螺儀也已經成為必備功能。
蘋果是第一個通過集成陀螺儀數據來增強視頻穩定性的手機廠商。陀螺儀和圖像傳感器數據同步需要很好的軟硬件協作,蘋果發揮了它完全控制其手機上的所有硬件和軟件元件的優勢,早在 2013 年發布的 iPhone 5s 上就已經實現了比較穩定的視頻效果。
而 Google Pixel 再次發揮了算法的優勢,通過「非因果防抖」的技術,使用大約一秒鐘的視頻緩存器來讓防抖系統預測未來的攝像頭運動。但是這種防抖功能需要陀螺儀提供非常可靠的數據,2012 年或 2013 年的老舊陀螺儀組件已經力不從心了——你在比較舊的 Android 手機上即使安裝了 Google Camera,也達不到 Pixel 的視頻穩定效果。
長江后浪推前浪,手機拍照一代比一代更好了,除了算法和光學防抖的改進,新技術層出不窮,手機攝像頭的光圈在變大,雙像素傳感器與相位傳感器的結合帶來了更快的自動對焦,人臉檢測依托算法也變得更加智能。
看到手機廠商們這么努力提升拍照水平,生產研發單反的「牙膏廠們」是不是也要加把勁了?