说起手机拍照,相信大家并不陌生。
机哥上学的时候,最流行的就是手机的前置摄像头给自己来一张美美的自拍。
也正是因为这张自拍,让那个时候的机哥更羡慕周围的白富美们用的相机。
那是财力和身份的象征——卡西欧 TR100。
但动辄三五千的售价,让机哥瑟瑟发抖。
这个时候,手机拍照第一次站起来了。OPPO 先看到了这一机会,推出了 U701。
虽然前置只有 200 万像素,但放眼 2012 年的产品,大部分手机前置拍照甚至用的还是 50 万和 130 万像素。
而 U701,让手机拍照第一次有了一个流行趋势:用高像素 一套用户喜欢的算法,拍出用户真正喜欢的照片。
手机影像到底经历了几次卷?
当然,机哥知道很多机友根本不在乎什么前置摄像头,这玩意儿属于有就行。
国产厂商也很快把影像卷入了下一个阶段,比拼摄像头数量。
厂商们本着多一个摄像头,拍照就更强的想法。在某一个阶段,做出了各类「战术摄像头」,谁多谁赢。
甚至有的手机一次性出了六个摄像头,一下子就让机哥穿越回了西游记?
手机厂商之所以需要这么多摄像头,是因为需要多个摄像头采集黑白、彩色等信息,做多帧合成。
本质上,那时的手机厂商希望通过不停合成,把多个画面最终导出一张超高质量的照片。
但最终这个方向也无疾而终,想法本身没错,但这条路受限于芯片的算力以及手机的设计感,消费者很难买单。
很快,国内的安卓厂商发现了一个全新的方向:底大一级压死人。
去年的小米11 Ultra,直接拿出了 1/1.12 的超大底传感器,这已经非常接近过去卡片相机的大小了。
同时,老牌相机厂商徕卡更是推出了旗下第一款手机,Leitz Phone 1,直接拿出了 1 英寸超大底。
机哥大受震撼。
大家好像不约而同地希望让手机彻底成为能打电话的相机。
但在同期,向来以影像闻名的谷歌 Pixel,用的却是一颗不大不小的 5000 万像素 1/1.31 的主传感器。
仔细一看,原来谷歌换上了自主研发的 Tensor 处理器。
同期,iPhone、华为也都是凭借着自主研发的处理器,加上一颗不大不小的传感器,打出了自己的影像实力。
手机厂商下一阶段,好像都在卷自研芯片,为什么?
首先,并不是高通和发哥的芯片算力不强,而是因为这些非自研的芯片,往往无法完全按照自己的想法去调校。
就像大家平时吃外卖,就算外面做得再好,但食材你不能自己选,炒菜的火候不能自己选。
高通和联发科就像美团上评价最高的外卖,但是和大家自己想吃的那个味道就是差了那么一点。
所以手机厂商们,也是在这一时刻不约而同的,希望从底层开始自己做。
就像自己掌握了食材、厨师、菜谱,真正做私人定制的大餐。
手机厂商的下一个卷点,只能是芯片。
因为只有搞出一颗自己的芯片,才能彻底打通任督二脉,从芯片-传感器-算法-软件彻底完全打通。
说到这儿,你摸过芯片吗?
机哥摸过,在小米 11 那会儿。
你很难想象,这东西是从砂子来的。
造芯
人们从石英砂提炼出超高纯度的单晶硅,由单晶硅变成晶柱,再切割打磨为晶圆;
以晶圆为基层,涂上光刻胶,通过光刻、掺杂、蚀刻等流程处理后,我们日常能见到的砂子,就成了一颗芯片。
这里头的技术和工艺,其实远不是文字上说的那么简单。
无论是芯片背后繁复的电路设计,还是利用光刻机的光刻生产,每一步都困难重重。
这些年机圈最出名的华为麒麟,就通过自研的SoC打破了系统芯片相对稳固的格局。
通过一代代的性能提升,逐渐取得行业领先的地位,同时也引来了外界的打压。
而最近这两年,国内的其他手机厂商也在各个领域,陆续推出了自主研发的芯片。
影像方面,OPPO 采用台积电 6nm 的工艺打造了首个自研影像 NPU 芯片马里亚纳 X,18 TOPs 的超高算力甚至超过了苹果的 A15 处理器。
都说做芯难,到底有多难?
关于这个问题,机哥想到了一个词:瓶颈。
瓶颈
机哥从机友们感知最强、使用最广的影像领域来看。
以前我们说「底大一级压死人」,更多是在相机里面的。
相机的底大一级,差距大概是这样的:
这个差距是毫米,每一层级之间的长度和宽度差至少都有个 4~5mm,大的甚至有接近 1cm 的长宽差。
而在手机领域,却完全不同。
此前业界闻名的索尼IMX700,放到这图里比所有框框都还要小。
以前,手机的感光传感器顶多能塞进它们之间大小差距的那条缝隙里。
现在,你看一眼自己手里的手机,摄像头凸出吗?
凸出的摄像头,就是这几年厂商追求更大尺寸感光传感器的结果。
但作为移动设备,无论是出于外观的协调,还是手机本身便携性的考量,手机镜头模组都不可能无限制地增大。
而在这有限的尺寸里,好像已经没有更多的空间来容纳不断扩大的传感器了。
纵观行业,vivo X70 Pro 、华为P50 Pro等主打影像的旗舰手机,在传感器的尺寸上,相较于上一代似乎也没有进一步的拓展。
目前几乎所有手机使用的CMOS,都还在1英寸的小框框里面竞争。它们的尺寸其实都很接近,越是顶级的传感器,尺寸越接近。
你得拿这个表格里最小的索尼 IMX586 和第二大的索尼 IMX700 对比,差不多才是相机传感器里 1 级的距离。
这里面差了多少代?IMX586 是 2018 年的传感器,和 IMX700 差了两年。
简单地说,目前手机,特别是旗舰手机,「底大一级压死人」这种差距,基本是不可能出现的。
硬件发展天花板的临近、行业赛道差异化的缩小,使得各大厂商开始寻找另一种破局的办法。
计算摄影新赛道
19 年底,谷歌推出的 Pixel 4 系列手机,用的是 IMX481 传感器主摄,尺寸只有 1/3.09 英寸。
但在这一代手机上,谷歌推出了 Pixel Neural Core 芯片。
这颗额外的芯片,谷歌 Pixel 手机运行着包括了多帧拍摄、合成、噪点处理等核心算法。
这些借助 Neural Core 运行的算法,能让你拍摄的照片经过长曝光后仍然保持足够的清晰度。
谷歌消除鬼影算法
你甚至可以说,有了这颗神经引擎核心,才有了 Pixel 4 那惊人的夜视仪能力。
而在最新款谷歌 Pixel 6 Pro 上,谷歌更进一步自主研发了一颗包括 CPU、GPU、ISP 的完整芯片 —— Tensor。
一颗系统级芯片,加上一套多年经验打造的 AI 算法,成了谷歌 Pixel 6 Pro 在计算摄影上的领先地位。
向来没有“大底”的苹果,在最新的顶配旗舰 iPhone 13 Pro Max 上采用了比上一代更大的传感器。
但 1/1.65 英寸的尺寸也只比 OPPO 19 年发布的 Reno 3 那颗古早的 IMX686 大一丢丢。
和安卓旗舰手机相比,显然是小了一截。
然而,在 A15 处理器的算力支持下,iPhone 13 Pro Max在HDR、Deep Fusion、夜景降噪等影像能力上,却仍然让许多安卓厂商望尘莫及。
尽管没有大底,iPhone 却通过芯片和算法保持着影像的高水准。
反观国内厂商,华为在 P40 系列就强调了「计算摄影」的重要性。
首次亮相的 XD Fusion 图像引擎通过 AI-RAW、多光谱色温传感器和 AI 白平衡等庞大的算法,结合麒麟 990-5G 提供的算力支持,打造了当代几乎最领先的影像实力。
而到了最新一代的 P50 Pro,1/1.56 英寸的 IMX766 传感器,相比于上一代 1/1.28 英寸的大底而言,甚至在账面上“缩水”了,却丝毫没有妨碍 P50 Pro 成为当时安卓影像旗舰的有力竞争者。
凭借着麒麟 9000 系列处理器的性能提升以及华为算法的进一步增强,通过新推出的全局式图像信息复原系统,配合完整的 XD Optic 计算光学体系,P50 Pro 用尺寸更小的传感器,达到了和上一代几乎无差的光学效果,以及更加出众的影像系统能力。
由此可见,CMOS 尺寸的大小已不再是衡量手机影像能力的唯一标准。
以芯片为基础,算法为核心的系统影像能力带来的计算摄影,正逐渐成为未来手机影像发展的大趋势。
OPPO 在去年开发者大会上发布的自研影像 NPU 芯片马里亚纳 X 也即将在新旗舰 Find X5 上首次亮相。
本质上,OPPO 的这颗影像专用芯片和之前华为、谷歌、苹果的 SoC 芯片在方向上是一致的,都是通过芯片赋能 AI 算法,从而实现软硬件协同运作,以达到系统性的优化效果。
只不过马里亚纳 X作为专门用于影像的神经网络引擎核心,除了能够为计算摄影提供更高的算力支持以外,更聚焦于影像能力的垂直整合。
配合 OPPO 自研的3A算法、悬浮防抖等全新的影像技术,在自研芯片的支持下,Find X5 或许能够更充分地发挥色彩传感器、CMOS 等硬件的性能和作用。
回归到造芯的问题,无论是谷歌、苹果还是华为、OPPO,造芯本质上都是为了突破技术限制与行业瓶颈。
但这并不意味着我们放弃了对更优质的手机硬件的追求,只不过芯片是目前更为迫切需要攻克的难关。
因为只有将芯片级的底层技术铺好,我们才有更大的空间去实现硬件层面的调优与发展。
机哥看到过很多机友抱怨手机太重、镜头太丑、机身太厚的吐槽,看到过对芯片过热的抱怨,看到过对电池续航不足的烦恼。
我们对手机还有太多的不满,但相信这些都是暂时的。
20 年前,手机摄影还是个虚无的概念,而如今 HDR、1 亿像素等技术甚至能够媲美相机;从“充电 5 分钟,通话两小时”的快充技术出现,到如今 120w 的半个小时充满,也仅仅只过去了 5 年。
自研芯片已经出现,手机技术的下一个春天还会远吗。
,