独家专访 | 苹果高级副总裁菲尔·席勒:A13 仿生改变了 iPhone 11 的一切

公司

2019-09-19 19:06

总有人会浅薄地认为,你只是加了一个摄像头,世界上也有其他超广角摄像头了,这有啥新鲜的?

菲尔·席勒(Phil Schiller)拿起桌上的一部 iPhone 11,打开相机,他指着屏幕两侧延伸出的取景画面对我说:

你瞧,它实际上是两颗摄像头同时在运作。

眼前这位负责营销的苹果高级副总裁,看起来比镜头前清瘦不少——在紧锣密鼓的苹果发布会上,席勒掌控着关于产品和技术层面的讲解时间。

但我们没有时间在 Keynote 上解释它具体是如何发生的,但它就在那里,从来没有人做过。

在大约 40 分钟的专访里,尽管我试图把对话引向更符合这位高管身份的话题上,但这位具备技术背景的高级副总裁,却始终滔滔不绝地向我吐露发布会上他没来及说的技术细节。

拍照是 iPhone 11 系列的核心卖点。正如我们此前评测,无论是三摄变焦的毫无顿挫,还是夜间模式的纯净度,iPhone 的摄影都再一次回到行业领先的位置。

芯片改变摄影

席勒把 iPhone 11 摄影的突破归功于 A13 仿生芯片上。这块由苹果自研的第二代 7nm 芯片, 依然采用 2+4 的设计,即两个高性能核心和四个能效核心设计,其中 CPU 速度最高可提升 20%,能耗最多可降低 30%,而四个能效核心速度提升了 20%,能耗却降低了 40%。

席勒认为,机器学习是 A13 仿生芯片区别于 A12 设计的一个重点,CPU 上新增了两个新的机器学习加速器,能以最高达 6 倍的速度执行矩阵数学运算,每秒可进行 1 万亿次的运算。

在相同的尺寸里,A13 仿生芯片比上一代多塞进了 11 亿个晶体管。那么,多出算力花在哪里?

答案是机器学习和图像处理的性能。

最好的例子莫过于 Deep Fusion,这个被席勒称为「计算摄影的疯狂哲学」的功能,可以在用户按下快门前拍摄 8 张照片,并融合一张按下快门时的长曝图片,生成一张媲美专业相机的高动态范围照片,即便在中低光环境下也能呈现更多细节。

▲ 席勒在发布会上介绍 Deep Fusion

席勒向我解释了它与智能 HDR 的不同:在正常情况下,智能 HDR 是通过多张图片的堆栈得到一张更好的照片,ISP 提供数据负责最后的成片,神经网络引擎只是协助成片。

ISP 意为图像信号传感器,主要负责讲传感器上的数据信号转换为屏幕上的图像。iPhone 11 取景框来自两个摄像头同时取景的画面,近乎完美的拼接, ISP 功不可没。

但是 Deep Fusion 不一样,当你拍摄了更多的照片数据时,它们会直接给到神经网络引擎,神经网络引擎具备一种全新的模型,可以整合大量的照片——它会对 2400 万像素进行逐一像素的比对,从而合成最终的照片。这是第一次,神经网络引擎主要去负责这个工作,而非 ISP。

那么,合成的时间?

一秒钟!你只需要关心拍照的事,当你回到相册的时候,它已经静静地躺在那里了。

iPhone 的拍照页面保持了 iOS 一贯的简洁,苹果希望帮助用户做选择,但背后却有精确的数字调度。席勒透露,DeepFusion 只会在 10-600lux 下的照度下激活,如果光线低于 10 lux,相机启用的则是夜间模式。

芯片的「大脑」

不止是苹果,各家智能手机厂商们逐渐意识到,智能手机时代的影像,早已脱离元器件的堆积,不是 CMOS 底大一寸压死人的粗暴逻辑,是感光元件、ISP、算法,甚至机器学习的配合与协同。

在 AI 大行其道的今天,当 AI 智慧拍照、 AI 人像、AI 美颜概念几乎成为 Android 手机的金字招牌,苹果显得有些格格不入,在发布会上轻描淡写,对媒体守口如瓶,你甚至在 iPhone 里找不到半个 AI 字眼。

在斯坦福教授人工智能历史一课的 Jerry Kaplan 表示,苹果不属于社区的一分子,就像是 AI 领域的 NSA(美国国家安全局)。

席勒没有透露更多关于苹果 AI 的进展,但他认为,机器学习的用武之地绝不仅仅在于如何让照片更好看:从 Siri 更自然的人声效果到相册的智能检索,从提升电池续航到 AR 的光影效果,它已经横贯于 iOS 大小功能的细枝末节和用户体验的方方面面。

当我猜测说 Apple Pencil 在 iPad 的「防误触」是否来自机器学习算法时,席勒笑着打断我的话:

可不止,连 Apple Pencil 的轨迹也是机器学习去预测的,它知道你可能会画到哪里。

事实上,机器学习在 iPhone 中无处不在,正如 Backchannel 主编 Steven Levy 提到的,你的 iPhone 早已经内置了 Apple Brain

Apple Brain 就是那颗 A13 仿生芯片——与其他大公司利用云端运算做机器学习不同,苹果调用的完全是本地芯片的能力。

这个「大脑」有多大?iPhone 上有多少用户数据缓存可供机器学习调用?

对于绝大多数公司,这个大脑可能是数以 TB 级的云端数据,但对于苹果而言,只有平均 200 MB——这些大到你的声音和面部数据,小到你滑屏的轨迹与习惯,都以加密的形式存储在 iPhone 的芯片之上。

从用户角度看,这种行为的确令人尊敬,但利用本地芯片做 AI 无疑是一条更艰难的赛道。

「的确很难,这意味着我们需要在芯片上投入大量的精力,意味着我们必须找到软件的方式去训练模型。」席勒说:

我们愿意这样做,不仅仅是因为本地运算更快,还因为——没有人不在意自己的隐私。

芯片是苹果护城河最坚固的那部分

自从 2008 年收购芯片制造商 P.A. 半导体,并在 iPhone 4 和初代 iPad 上采用首颗自研处理器 A4,苹果逐渐与 ARM 公版设计分道扬镳。到了 iPhone 5 所采用的 A6 芯片,苹果真正的设计实力与野心才开始逐渐展露。

从核心的 SoC,到协处理器、电源管理芯片,苹果正在一步步让半导体元器件的设计掌控在自己手中。

苹果芯片的客户只有自己,好处在于自己才更能了解自己需要什么,并将其发挥到最大的价值,从而达到软硬件的高度契合。

今年 3 月发布的第二代 AirPods 上,苹果首次为耳机产品研发了芯片组 H1。

对于大众而言,H1 芯片带来的升级,远不如加个新配色或是改个外观来得吸引人,但芯片却直接关乎着左右耳连接的稳定性,以及低延迟表现,这恰恰是竞品与 AirPods 差距最大的部分。

用户对苹果芯片实力的感知并不直观,很多人觉得 iPhone 好用,却道不出其技术缘由,简单粗暴地把用户体验归为 iOS 的老本。

人们往往会忽略苹果的整个生态系统。

芯片是一个门槛更高的产业,很难被竞争对手模仿与跟随。某种意义上,自研芯片才是 iOS 生态系统的核心,是整个护城河里最坚固的部分。

芯片的研发周期大约在 2-3 年,涉及多个团队,这期间架构工程师要同数目庞大的软件和硬件人员共同协作。芯片团队每周都要和其他团队当面沟通。

Anand Shimpi 曾是 AnandTech 的创始人,加入苹果后负责芯片业务,就在采访前,他刚刚和 GPU 部门的架构师开了一场会:

摄像头经常会用到 GPU。这有两方面影响,芯片部门设计的 GPU 可以告诉相机部门如何把它用到最好,而相机部门的需求也会指导 GPU 未来的发展。

接近十年自研芯片的历史让苹果对 A 系列芯片非常自信,不仅发布会史无前例地在 Keynote 吊打两大竞品,在采访中,席勒也毫不掩饰地评论竞争对手:

他们很难持久,他们也许会关注单一性能的指标,而我们更在乎每瓦的性能……我们不销售芯片,我思考的只是如何让体验更好。

采访结束后,当我掏出相机合影时,席勒指着我的相机笑着说:

Not very smart camera, but a big lens.

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中

从技术的旁观者与记录者,成为技术影响生活方式的实践者。

本篇来自栏目

解锁订阅模式,获得更多专属优质内容