今天小编分享的科技经验:让你的旧手机拍照追上新旗舰,这个应用凭什么,欢迎阅读。
我有两台备机,分别是 2022 年初发布的一加 Ace,与一台 2023 年初发售的 iQOO Z7。
一加 Ace 作为定价在 2000+ 的中端机,承担主要成像任务的是一颗 1/1.56 英寸的 IMX 766 传感器;而 iQOO Z7 更是主打的游戏,只需要一千多,配备的是 1/1.97 英寸的三星 GW 3 传感器。
这两款设备尽管在各自定位上表现不错,但在影像能力上都已逐渐无法满足我的需求。
即使到了 2024 年,国产手机的影像技术已经足够优秀了,但主要集中在旗舰机型上。对于非旗舰手机——尤其是前几代的中低端机型,影像技术尚未充分普及,我需要一些别的办法去提升它们的影像能力。
Google 相机,让老手机的影像焕发第二春
硬體无法改变,但軟體还有操作的余地。
想从軟體上提升拍摄效果,我第一时间想到的,是在智能手机初期就饱受赞誉的 Google 相机——在那个影像的混沌时代,Google 相机拯救了无数手机的成像,甚至一度被各个开发者修改,以便适配更多的手机系统,成为刷机爱好者的必备 app。
于是,我立马在两台手机上安装 Google 相机并进行了对比测试,看看它是否能拯救我的备机们。
带着手机才走出办公室,就看见下午的阳光从屋檐中倾泻下来,空调外机的亮度与周围阴影部分形成了巨大的反差,呈现出一个大光比的环境,这正是测试 HDR 效果的好时机。
▲ 左:一加 Ace 原生相机 / 右:Google 相机
通过照片可以看出,在这样一个颜色鲜明、明暗分明的环境中,一加 Ace 原生相机与 Google 相机的成像区别:一加在 HDR 算法上更为保守,保证了一定的光学成像的自然观感,但是画面有些发灰,墙壁的红色饱和度下降严重;
Google 相机则更为激进,将空调外机的高光部分大大压制,树叶的绿色与墙壁的红色也保持了比较鲜明的饱和度,但由于算法大力度介入,Google 相机拍摄的照片锐化痕迹比较明显,在整体观感上数码感较重。
走出室外,阳光照射在路边餐厅用于装饰的小轿车上,我将一加 Ace 对准反射着阳光的引擎盖,看看在阳光直射镜头时,两种算法的 HDR 差距。
这张照片很清晰地展现了两种算法的成像倾向:原生相机继续维持自己的温和策略,照片中的高光与阴影被压制在一个舒适的区间中,保证了柔和自然的观感,不过引擎盖上的高光有些溢出,最亮部的引擎盖划痕被盖住了;
Google 相机还是选择了较高对比度的质感路线,保证颜色的「沉重」感,引擎盖上的高光压制得很不错,划痕也清晰可见。
尝试了 Google 相机的 HDR 算法,我们再看看普通场景中的照片对比。
在光比较小的场景中,两张照片并没有太明显的差别,细看之下,也只有左上部分的树叶与中间橙色的推车有亮度上的细微不同。
总体而言,在 HDR 并不会大力度介入成像时,一加 Ace 的原生相机与 Google 相机算法的区别也在变小,原生相机的影调曲线更为柔和,而 Google 相机的影调曲线更为硬朗,全看使用者的偏好,而并无高下之分。
▲ 左:一加 Ace 原生相机亮度曲线 / 右:Google 相机亮度曲线(模拟)
接下来,我又用另一台 iQOO Z7 在傍晚环境下,对充满细节的橱窗拍摄了一组对比,看看在光照不足时,两种算法的表现如何。
▲ 左:iQOO Z7 原生相机 / 右:Google 相机
在周围光照环境较为弱的时候,两套算法也呈现出了完全不同的成像倾向:iQOO 原生相机会将画面尽量提亮,展现更多的暗部细节,同时加入锐化,使画面中的物体与文字边缘更加锐利,比如橱窗中的文字变得更清晰了,而坏处在于过度的锐化会带来强大的涂抹感,橱窗前的文字与植物都出现了一定的涂抹表现;
而 Google 相机则倾向于控制好高光,整体观感与肉眼相似,同时没有加入过度锐化,保留了光学成像应有的质感,但橱窗中的文字糊在了一起,在辨识度上差上不少。
在这轮对比中,可以说两者各有千秋,但在完全天黑后,两种算法再次展现出不同的倾向。
在完全入夜的街道中,我使用 Google 相机提供的 Night Sight 模式与 iQOO 原生相机的夜景算法进行对比。
在对比测试下,夜景表现是两个相机算法差别最大的地方:iQOO 原生相机将暗部大幅度提亮,提供了更多的暗部细节,但照片中的亮部与暗部反差并不大,整个画面显得有些平;
使用 Google 相机 Night Sight 模式拍摄的照片,则在保证暗部细节的同时,将影调尽可能地还原,亮的地方亮,暗的地方暗,给照片一个尽量自然的观感。
虽然这两台不以影像能力为卖点的手机在同等級中的成像已经不算落伍了,但在 Google 相机提供的 HDR 与夜景算法加持下,依然有机会「焕发第二春」。
也就是说,如果你不追求每年更新旗舰手机,但遇到大光比与完全昏暗的环境时,仍希望获得更好的拍摄效果,不妨尝试请 Google 相机出山试试。
不过,如今的 Google 相机已经很难找到原生版本了。
在 Pixel 推出以后,Google 相机就成为了 Pixel 的原生相机,不再作为单独的 app 存在,所以适配难度直线上升;加上国产手机「青出于蓝」地持续进步,逐渐吸引了大家的目光并得到认可,Google 相机受到的关注度也迅速下降。
▲ 使用 Google 相机的 Pixel 3
长久以往,Google 相机广泛适配各种品牌手机的盛况已经不复存在。
幸运的是,还有不少开发者对 Google 相机情有独钟,持续进行修改与更新,使其可以运行在更多的平台上。
我在这次测试中使用的,就是来自哈萨克斯坦的独立开发者 BSG 发布的 GCam(Google Camera 的简称),BSG 通过反编译和修改 Google 相机的 APK 檔案,使其能够在更多的非 Pixel 设备上运行,并且通过添加额外的功能和优化,让使用者在有需要时对相机拥有更大的控制权。
▲ 第三方开发的版本,提供了非常多的自定义选项
我搜集了更多的 Google 相机开发者信息以及他们推出的版本,供大家参考:
来自 BigKaka 开发的 AGC,目前最新版本为 AGC 9.4.24_V2.0;
来自哈萨克斯坦的开发者 BSG 推出的 MGC,目前版本为 MGC 9.2.113;
来自 MWP 开发的 Gcam,目前版本为 8.8.224;
来自 Shamim 的 SGCAM,目前版本为 SGCAM_8.5.300.XX.10;
在这次测试中,我就分别使用了 BSG 与 BigKaka 两位开发者推出的第三方 Google 相机。
这两位开发者的更新频率最高、版本最多,用 BSG 推出的 MGC 举例,仅仅我使用的 MGC 9.2.113 这一版本更新中,BSG 就根据不同用户的设备和需求适配了通用版、高通骁龙芯片版、三星版、开发者版、美颜优化版以及 3D 扫描版。
为了方便大家的尝试,我将 BSG 与 BigKaka 开发的最新版 Google 相机安装包整合在了一起,大家可以通过后台发送「Google」获取,并选择适合自己的版本。
计算摄影的开路人,又用 AI 开启了下一个十年
测试结束后,我细细一数,Google 相机竟然已经推出了十年了。
早期的智能手机毫无疑问是个新鲜玩意儿,厂家与用户都将注意力放在了新鲜的系统和应用上,相比之下,从功能机时代就存在的影像功能,的确显得没那么有意思。
由于缺乏关注度,智能手机的影像系统一直处于一个能用,但不好用的状态。
2011 年发布的 iPhone 4s 是一个具象化的例子——面积过小的 CMOS 与结构简单的镜头,导致手机在拍照时的进光量非常小,最终体现在照片上,就是模糊的景象和满是噪点的画面,以至于在现在的社交平台上,被人视为 CCD 相机的平替。
这看起来有些好笑,但这的确是智能手机头几年影像水平的真实写照。
作为 Android 系统的排头老大,Google 对影像明显有些不满意,于是决定给 Android 手机打个样:智能手机,应该走计算摄影这条路。
2014 年 4 月,当其他厂商尚处于懵懂中时,Google 相机正式推出。
在推出后不久,Google 相机就迎来了首次重大更新——引入 HDR+ 功能,通过多帧合成技术大幅提升了动态范围。
两三年后,Nexus 系列的继任者 Pixel 系列手机横空出世,Google 相机摇身一变,成为了 Pixel 的默认系统相机。
当时的市场主流影像方案是以 iPhone 为首的「双摄」组合,而 Pixel 凭借一颗单摄与之抗衡,在 DxO 评分中力压 iPhone 与三星,在 Android 系统庞大的用户基数与关注度的东风下,Google 相机与其算法名声大噪,计算摄影一词开始被大众真正关注。
此时,恰逢国产手机的竞争也逐渐进入白热化,手机影像成为继芯片、内存、螢幕之后的主要竞争点,国产厂商开始在影像上发力,Google 相机在两三年前立下的路标,成了所有人的方向。
2016 年,华为与徕卡达成合作,在 P9 中逐渐强化相机算法,包括引入多帧融合,将国产手机的 HDR 效果从「不好用」提升到了「几乎还不错」,之后不久,小米就在当年的旗舰小米 6 与小米 Note3 中引入了类似的 HDR 技术,OPPO 与 vivo 也紧随其后,在原生相机中加入了多帧融合技术改善成片质量。
Google 相机第二次引领风潮,是在 2018 年推出的 Pixel 3 上,推出了夜视模式(NIght Sight)。
在此之前,夜景是摆在手机面前最大的坎,CMOS 面积小、防抖部件缺失,在连相机都需要三脚架才能成像的光照环境下,手机完全没法使用。
而 Google 推出的夜视模式,支持手机在极低的光照环境下拍出清晰、明亮且细节丰富的照片,极大地拓展了手机影像的使用边界,被大家称呼为「夜视仪」。
夜视模式的原理其实并不难理解,在按下快门的瞬间,Google 相机会自动拍摄多张不同曝光时间的照片,这些照片的曝光时间从短至长,捕捉到的光线信息也有所不同。通过将这些多帧影像合成一张最终照片,夜视模式能够最大限度地利用环境光,从而提高亮度和动态范围。
说到底,这也是多帧融合的延伸方案,在相机上,类似的操作叫包围曝光与堆栈。
夜视模式是 Google 相机的一项突破性更新,在此之后,对于记录生活的非专业用户来说,手机的易用性已经超过了相机。
▲ Pixel 3 上的 Night Sight,与同期的 iPhone Xs 相比
这一次,厂商的跟进速度非常之快。
在 2018 年年底,Google 才刚刚将夜视模式通过更新推送给 Pixel 3,小米就为自家同年发布的 Mix 3 率先更新了超级夜景模式,随后 OPPO R17 Pro、vivo NEX 双屏版与华为 P20 Pro 都先后搭载了自家研发的夜景模式。
苹果与三星也在次年为 iPhone 11 系列和 Galaxy S10 系列配备了夜景模式。
相比受到众多关注的夜视模式(Night Sight),Pixel 3 上还有一个新功能:在相机被唤醒后,系统会自动识别摄像头中的场景,并在使用者按下快门后,迅速对照片进行优化,让天空更蓝,让树叶更绿。
这个功能名为智能场景识别的功能在当时绝对不算起眼,却在后来成为第三次风潮,为 AI 参与成像打下简直基础,
从 2017 年开始,Android 厂商就各自开始发力,华为率先在当年推出的 Mate 10 中尝试 AI 技术优化智能场景识别,三星与小米迅速跟进,在 2018 年推出的 Galaxy S9 与小米 8 中也加入了 AI 场景识别。
这一功能最为人熟知的应用是伴随华为 P30 Pro 推出的「月亮模式」,在当时一度成为手机摄影的热点。
从此,智能识别开始深度介入手机摄影的成像中,一直发展到现在,应用的场景几乎可以覆盖我们眼睛能见到所有事物,小到美食的润色,大到落日银河的壮观,都是 AI 场景识别的一个延续。
十年里,Google 相机先将处于混沌中的手机影像带上了计算摄影的道路,又手把手演示如何用軟體将硬體发挥到极致,引领手机摄影迎来从 " 能用 " 到 " 好用 ",再到 " 强大 " 的质变,让今天的影像旗舰手机不仅抬手就能拍,也能抬手就拍好。
十年过去,Google 依旧敢为人先,在上个月的 Made by Google 大会上,发布了全新的 Pixel 9。
这部手机作为世界上第一台在系统级别集成 AI 的手机,影像系统得到了全面加持,除了更方便的合影外,用户可以在 Pixel 9 拍完的照片里编辑、移动元素,甚至在 AI 的加持下,通过简单的文字描述,就可以直接修改照片任何部分的内容。
这是手机影像系统第一次跨过虚与实的界线,在 AI 的帮助下,Google 将手机影像从「记录」跨越到「创造」,一举推开了下一个十年的大门。