讲完了硬件部分的改动,接下来我们来聊聊iPhone 14 Pro Max在软件、算法方面的一些变化。
接着前文中的那张表格,我们也列出了iPhone 14 Pro Max在拍照模式、摄像功能上,相比前几代产品所发生的改变。
可以看到,iPhone 14 Pro Max在拍照功能上最大的改动是“光像引擎(Photonic Engine)”,它本质上其实是一种基于RAW域多帧合成+AI算法的图像生成算法。要知道,尽管苹果其实是业内很早就广泛采用多帧合成和AI降噪(也就是大家熟知的“深度融合”)技术的厂商之一,但此前的深度融合算法并非是直接对CMOS捕捉到的原始图像数据进行融合,因为那样做的计算量太大,当时的ISP还承受不了。
有的朋友可能会说,类似的“RAW域合成”功能,近年来不是已经有许多品牌都宣称用上了吗?的确如此。但问题在于,并没有任何一个品牌会透露,自己的多帧合成算法到底合成了多少帧的图像。因此,我们其实也无法从算法层面上对它们进行的横向比较。
只有手动开启ProRAW选项,才能使用4800万像素拍照
但在iPhone 14 Pro Max上,我们注意到了一个很有意思的的细节。那就是其主摄的4800万像素模式,是必须要先在相机设置里启用ProRAW格式,然后在拍照时选择RAW模式,此时才会拍摄4800万像素的照片,并保存为更便于后期编辑的无损格式。
传统智能手机的RAW格式照片(右),直出观感往往远差于JPG格式(左)
如果大家接触过其他机型的“无损模式”可能就会记得,这些机型拍摄的RAW格式照片往往会呈现出特有的灰暗色调,无法直接使用、必须经过软件的后期调色,才能体现出RAW格式色彩、亮度动态范围大的优势。而且还能明显感受到,这些机型对RAW格式照片是没有进行降噪处理的,所以往往甚至会有比默认模式下更多的噪点。
样张:玻璃瓶 ISO200 24mm f1.78 1/100s
样张:玻璃瓶(ProRAW格式) ISO160 24mm f1.78 1/100s
然而iPhone 14 Pro Max拍出的ProRAW格式4800万像素照片,却并不是这样。可以看到,与默认情况下经过了“像素四合一”以及多帧合成、HDR算法加持的照片相比,iPhone 14 Pro Max的ProRAW格式照片在确实拥有更丰富细节的同时,色彩上却仅仅只是略微“清淡”了那么一点点,完全没有出现其他机型上RAW格式特有的“灰蒙蒙”发色现象。
默认(1200万像素)模式下中心放大
ProRAW格式(4800万像素)模式下中心放大
为什么会这样?根据我们三易生活的推测,这很可能说明iPhone 14 Pro Max即便是在ProRAW模式下,也依然会对图像进行多帧合成处理。换句话说,它的“光像引擎”是可以直接对主摄4800万像素的RAW格式照片进行合成、降噪的。相比之下,目前行业中大多数机型在启用“高像素模式”时,哪怕拍摄的是有损照片,多帧合成算法往往也无法起作用。
样张:猫 ISO80 24mm f1.78 1/233s
样张:猫(ProRAW格式)ISO80 24mm f1.78 1/238s
这说明了什么呢?一方面,与行业中常见、其他品牌的“高像素”或“无损模式”相比,iPhone 14 Pro Max的4800万像素ProRAW照片将有着明显的画质优势,同时其实也不需要麻烦的后期调色,只用在手机上略微裁剪或是缩图,这些照片就完全可以用于社交媒体,对于非专业用户而言实用性显然也同样相当高。
默认(1200万像素)模式下中心放大
ProRAW格式(4800万像素)模式下中心放大
另一方面,这样的设计其实是非常典型的“苹果式产品思维”。它背后可能使用了极其复杂的RAW域多帧合成算法、可能需要相当恐怖的算力来做支撑。但在最终的用户体验上,却又是如此的简单、好用。
顺带一提,这其实也从侧面印证了我们三易生活此前对于A16仿生芯片采用了新指令集、新架构,因此性能潜力很可能尚未被现有测试软件、游戏,充分发挥出来的推论。