揭秘:苹果在 iPhone 里藏了个 “人工智能大脑”

公司

2016-08-26 15:45

编者按:本文全文编译自 Backchannel 编辑 Steven Levy 的相关文章《The iBrain is Here:and it’s already inside your phone》,在最大程度保留文章原貌的基础上进行了极少数删减。

Steven Levy 前不久有幸前往苹果库比提诺 “飞碟” 总部,并且在数位苹果核心高管的陪同下详细的了解了人工智能技术目前以及将来在苹果产品中的应用。本文也是苹果科技 “软实力” 的一次大汇总,非常有阅读的价值。

以下是编译全文:

001

002

 

独家内部视角看人工智能和机器学习如何改变苹果

2014 年 7 月 30 日,Siri 做了一次 “脑部移植手术”。

三年前的那个日子,苹果成为第一家将智能助手移植到自己系统的主流科技企业。在更早的日子里,Siri 这款在 2010 年通过收购纳入囊中的产品一直以独立应用程序的形式存在。

刚推出之时,大家对 Siri 都欣喜若狂,但随着时间流逝,用户却愈发对其缺点变得不耐烦,因为它经常性地误解命令,产品微调之后也不见提升。

于是,苹果在那个 7 月 30 日做了一个重要决定:把美国用户的 Siri 语音识别迁移到以 “神经网络” 为基础的新系统中,随后在 8 月 15 日推广到全世界用户。

在新系统中,“隐性马尔可夫模型” 等一系列 “老” 技术仍在使用,但是更重要的是引入机器学习技术,包括 “深度神经网络(DNN)”、“卷积神经网络”、“长短期记忆单元”、“门控性电源(gated recurrent units)”、以及 “n-grams”。

经过这次升级,Siri 虽然看起来仍然一样,但是却得到了深度学习的强力 buff。

为了不让自己的竞争对手从 Siri 上获得启发,苹果再次采取了高度保密的策略。而用户最多也只能体会到 Siri 犯的错越来越少了。直到最近的揭秘,苹果才公开谈论起当时的效果——准确率的提升幅度是惊人的。

003

苹果高级互联网软件及服务副总裁 Eddy Cue

 Eddy Cue 表示:“这次提升非常明显,以至于有人专门核对了一次准确率的数字,以免不小心漏掉了小数点。(提升了至少一位数)”

Siri 这次的 “华丽变身”,也让人工智能业界 “惊讶”,但不是因为他们的成绩,更多的是因为苹果如此低调,但又能如此出色的完成这个任务。

即便苹果最近在人工智能领域加大了人才的招聘力度,也做了一些高调的创业公司收购,大多数人还是将苹果视为这个火热领域的落后者。同时又因为苹果的高度保密,让人工智能相应的专家也不清楚他们在机器学习相关进展。正如斯坦福人工智能历史课程讲师 Jerry Kaplan 所说:

苹果并没有在人工智能社区中出现,有点像人工智能领域的 NSA(美国国家安全局)。

相比之下,其他硅谷独角兽  Google 和 Facebook 在人工智能领域的努力,则更容易为外界所捕获,并且传播开来。

当然也有人会持有反对意见,来自 Allen AI 研究所的 Oren Etzioni 算一个:

Google、Facebook、微软里都有顶尖的机器学习人才。而苹果的确也聘用了一些人工智能方面的人才,但是公认的机器学习 5 位领袖都不在内。

而且即便苹果已经用人工智能实现了语音的识别能力,但是接下来苹果会将机器学习加入到什么功能之中?这仍然是个谜。

014

不过这个也不怪 Oren Etzioni,这个月早些时候,苹果秘密地展示了他们产品应用机器学习技术的进展,可惜对象不是他,而是我。

在好几位苹果高管(包括上文提到的 Eddy Cue、高级全球市场副总裁 Phil Schiller、高级软件工程副总裁 Craig Federighi,后两者一直也被视为苹果人工智能方面的关键性科学家)的陪同下,我在苹果库比提诺的飞船总部里面花了几乎一整天,完整地了解机器学习在苹果应用中目前以及未来的应用情况。

当我们坐下之后,他们就递给我了一份两页而且 “满满当当” 的日程列表,上面全是机器学习在苹果产品和服务中的应用,除了已经实现、甚至还包括了他们即将讨论的项目。

从这份列表中,你还能比较容易地提取出一个核心信息:

苹果已经进入了人工智能领域,而且绝不甘心成为 “第二” 这样的角色,还将会采用一条不同于别人的路径。

拥有 iPhone 的人看起来都是苹果人工智能技术的直接受益者,但实际上不仅仅是因为 Siri 能够很准确的理解你在问它什么。哪怕有人最近只是邮件了你,他都会出现在 “最近联系人” 之列;侧滑之后出现的 “你接下来最可能打开的应用” 列表;提醒你在 “提醒事项” 中标记了、但又没有放进日程表的约会;在你输入全名之前将你已经预定了的酒店地点推送出来;甚至是在你没有询问的情况下直接把停车地点指示给你。

以上这些例子都跟深度学习和神经网络有关系,有些是因此变得可能,其他至少也得到了大幅度的增强。

没错,一颗真正的 “苹果大脑”——就藏在你的手机里。

004

脸部识别?苹果借助其神经网络技术,加入了混战

根据我拿到的简介来看,机器学习已经渗透到苹果产品和服务的每个角落。比如苹果使用深度学习来检测 App Store 骗保行为,延长所有设备的电池寿命,从成千上万份 beta 版报告中发现最有价值的用户反馈。

而机器学习则让苹果能够选择适合你的新闻;也能让 Apple Watch 分辨出你究竟是在锻炼还是在闲逛;它能变成出你图片中的面孔和地点;在 Wi-Fi 信号比较弱的情况下是否要转换到移动网络;它甚至能化身为一名优秀 “电影制作人”,轻轻点击一下就能快速地把你的照片还有影像片段拼合到一起。

苹果的竞争者也在做着类似的东西,但是可以确定的是,在保护隐私这件事苹果绝对是把人工智能技术用到了 “极致”(这里指的是差分隐私技术,点击查看爱范儿相关报道)。当然,他们也并没有打造出像苹果的产品。

而且人工智能对于苹果来说不算 “新东西”,早在 1990 年代,苹果已经开始使用机器学习技术开发笔记识别程序(Newton 平板)。这个研究成果在目前的苹果产品上依旧有用,这也是为什么苹果能很好地识别你的 “狂草”。这跟苹果一直都设有专门的机器学习团队也有关系。

早期的机器学习非常原始,深度学习更一直被视为一个梦想,与现在成为 “潮流” 的情况相差甚远。但是苹果被套上了 “落后者” 形象这件事直接导致了 Tim Cook 最近专门站出来发话,表示苹果其实一直都在人工智能领域,只不过没有专门去宣传而已。连带着让一大批苹果高层最近也开展了宣传攻势。

006

Apple Watch 上面的减肥应用,也有机器学习技术的加成

在苹果高级全球市场副总裁 Phil Schiller 看来:

人工智能最近 5 年为苹果带来的增长大家有目共睹,我们设备智能化的速度变得更快,特别是在苹果自己设计的一系列芯片帮助下。我们的设备变得更智能、更快,而我们所做的每一件事情,实际上都是为了让事物能够更好的链接到一起。

而更强大的硬件也让我们能够运用越来越多的机器学习技巧,因为他们提供了非常多的东西给我们进行学习。

虽然苹果已经选择了 “拥抱” 机器学习,但是他们并没有放弃基础原则。在这群库比提诺的先锋者们眼里,深度学习和机器学习只是不断出现的新技术之流中最新的那几个。

它们拥有改变事物的能力,但并不一定超过一些其他技术优势,比如触屏、平板电脑、面向对象的编程技术等。在苹果眼里,机器并非其他公司口中的 “人机交互终极目标”。Eddy Cue 对此就曾表示:

这并不会摧毁这么多年以来建立的人机交互方式。

除此之外,我们还谈论到了一些大家非常关心的话题:苹果对于机器是否将取代人类没有兴趣;不确认苹果是否会制造无人驾驶汽车;甚至是打造苹果自己版本的 Netflix;承诺苹果不会打造终结人类的 “天网” 等等。

Phil Schiller 还单独做了一个小总结:

我们将利用这些技术,从而比之前更好地做我们想要做的东西,或者完成一些我们之前无法做到的事。最终以非常苹果的方式打造我们的产品。

他们随后还拓展解释了一下上述观点,内容主要集中在两个方面,一个是人工智能究竟从何种程度改变了苹果目前的生态系统。

第二个是苹果为什么出于用户隐私保护的目的,干掉普通的信息收集引擎(要知道,大量的数据可以会极大的改善神经网络的能力),从而确保用户的数据不会被其他人滥用。很明显,苹果已经有了跨越这两个 “障碍” 的方法。

那么这个 “苹果大脑” 究竟有多大呢?怎样才能驱动 iPhone 之上的机器学习能力呢?而苹果官方透露出来的大小是 200 MB 左右,这个大小会随着用户保存的个人信息的多少而改变。这其中包括了应用使用频率、跟别人的交互、神经网络处理、语音识别模型、以及 “自然语言模型”。

当然,它还包括了用神经网络加成的对象识别,脸部识别以及场景分辨。

因为所有新应用的大前提,都是用户的偏好以及经历等隐私不被公开。

014

尽管苹果没有把他们在 AI 方面的努力摊开来讲,但我设法弄明白了他们怎么在组织里分配机器学习的专业知识。公司可以共享这些机器学习方面的人才,提供给那些用机器学习来解决问题并且开发个人方面产品的产品团队。Craig Federighi 对此解释到:

机器学习的最高境界就是不要有一个集中的组织。我们试着把它和需要用来交付正确用户体验的团队拉近距离。

那么苹果有多少人在做机器学习方面工作?Federighi 在再三催促下给出的答案只是两个字 “很多”。(如果你以为他可能会给我那个数字,那就是你不了解苹果了。)

有意思的是,苹果很多从事机器学习的员工在加入之前都没有受过人工智能的教学。“我们雇佣的这些人在数学、统计数据、编程语言、密码学这些基础领域有特长。”Federighi 接下来也解释了这种现象的原因:

这些其他方向的核心天才可以完美的转换到机器学习领域,虽然我们当下还在继续招聘机器学习的专业人才,但是我们一直在继续寻找有核心能力和天赋的人。

007

我们并没有设立一个单独、中心化的组织,来充当苹果机器学习 “殿堂”。

008

左前方的苹果高级软件工程副总裁 Craig Federighi 正在听 Siri 项目资深指导 Alex Acero 在苹果总部谈论语音识别软件。

尽管 Federighi 没有说,但是我觉得这种说法的确存在:苹果一直强调保密,而行业内的其他公司却鼓励自己的工程师向外界分享研究成果,这种模式不利于苹果保持竞争优势。Federighi 对于苹果和别的公司的做法还做了一个 “分类”:

我们的做法也让程序员间的自然选择被强化——一种喜欢通过团队合作,从而打造出一个伟大的产品;另外一种只是打算将自己的技术展示出来。

如果科学家在提升苹果产品的过程中能够发现突破,这自然很好。“但我们实际上是抱着对最终目标的幻想在前行”Cue 补充了一句。

苹果人工智能领域里的人才很多都是通过收购的方式进来的。Cue 给出了一个比较 “夸张” 的数据:

我们最近收购了二三十家相对较小的公司,同时雇佣了这些员工。

Federighi 还补充了一个非常重要的 “收购思路”:

当苹果收购 AI 公司的时候,并不是说 “嘿,这儿有很多机器学习的研究人员,我们来设立一个部门吧!我们要的是那些有天赋并且真正专注于提供卓越经验的人。 

苹果最近以 2 亿美元的报价收购了西雅图的 Turi 公司。这家公司开发了一个可以和 Google TensorFlow 一较高下的工具包,这次收购引发业界猜测——苹果有可能会在系统内部和开发者方面提供与 Google 相似的目的,在场的几位高管均对这件事不予置评。Cue 则表示:

无论从科技的视角还是个人观点来看,Turi 都有很多和苹果相符的地方。

也许一两年后,我们就可以弄清楚到底发生了什么,就像当初 Cue(苹果在 2013 年收购的小型初创公司,非上文提到的 Eddy Cue)在 Siri 上展示的预测能力。

无论人才从哪儿来的,苹果的人工智能基础已经能够让之前那些产品和技术上的不可能,重新变为可能。进而改变了公司的发展蓝图。Schiller 的话就算一个小小的透露:

在苹果,每天都有很酷的点子。机器学习让我们能够解决之前 “不可能” 的问题,并且已经规划进了我们接下来打算做的事情当中。

 

其中一个例子就是在 iPad Pro 上使用的苹果触控笔。为了让苹果把高科技触控笔列入产品中,不得不解决掉人们在电子设备上写字,手会不小心触碰到屏幕,从而导致各种字符混乱的问题。

使用机器学习模型 “手掌误触”,可以有效的提高屏幕传感器区别擦碰、触摸和笔尖的精确度。

“如果它不能稳定的运行,那这就不是一张可供书写的纸,触控笔也没啥用。”Federighi 说道。

如果你喜欢苹果触控笔,那就感谢机器学习吧。

014

也许苹果到现在为止,机器学习方面最好的进步方法,就是从它最重要的人工智能产品——Siri 那里获得的。

Siri 起源于一个雄心勃勃的项目 DARPA 的智能助手,不久后,就有几个科学家组建了一个公司,打算用这种技术来打造一个 app。

在 2010 年 Steve Jobs 亲自说服了创始人把它卖给了苹果。Siri 直接被构建进了操作系统中,并成为了 2011 年 10 月 iPhone 4S 发布会的重头戏。

而现在,它完完全全可以应用在实际中。当用户长按 Home 键或是简单的说一句 “Hey,Siri。” 就可以使用(iPhone 有个特性,能让其中一个收音器始终打开又不会费电)。Siri 无论在它工作时还是沉默时都和 Apple Brain 是一个整体。

就核心产品而言,Cue 用了产品的四个组件来说明:语音识别(理解你在和它说话),自然语言理解能力(掌握并理解你所说的话),执行(实现你的询问和要求),回答(回应你)。

“机器学习影响了这些极其重要的方面”。Cue 说道。

010

Siri 高级研发负责人 Tom Gruber(上)、以及 Siri 语音大师 Alex Acero(下)

Tom Gruber 在 2011 年其中一个创始人离开后加入了苹果,提到在苹果给 Siri 使用应用神经网络之前,其用户群就提供了大量数据,这对于锻炼这个神经网络很重要。

Steve 曾说过,你会一夜之间从一个不知名的 app 一跃拥有一亿用户,并且无需公测。用户会告诉你他们是怎么和你的 app 对话,这就是第一次革命,接着,应用神经网络就来了。

Siri 从最初的应用神经网络到现在能够应对用户的各种要求,全靠语音识别团队的高管 Alex Acero 等几位 AI 专家。90 年代早期,Acero 就开始了在苹果语音识别团队的生涯,然后又去了微软研究院。

“我喜欢那里的日子,我还发表了很多论文,” 他说道 “但是当 Siri 面世的时候,我觉得这就是一个把应用神经网络得以实现的好机会啊!不是仅仅让一百个人知道,而是要让一百万个人用到。”

换句话来说,这就是苹果一直需要的科学家,热衷于研发产品而不是发表论文。

011

机器学习非常显著的、从多个方面对 Siri 造成了冲击

在 Acero 三年前加入苹果那时,Siri 的语音技术实际上还主要是来自第三方的协议授权,这注定要做出改变。Federighi 还注意到这实际上是苹果不断重复的模式:

当这个技术成为决定我们能否做出好产品的关键技术,我们就会建立自己的内嵌功能然后实现我们想要的效果。但如果想要让它变得完美,我们必须自己拥有技术并且不断创新,语音技术就是我们采纳一个东西,并且最终实现落地的最好例子。

苹果团队第一步选择了用神经网络代替 Siri 原有的底层,“我们有一个不停运转的大型 GPU 集群,最终我们得到了大量的数据”Acero 透露到。2014 年 7 月的发布证明这些循环性学习并没有白费。

“在绝大多数语言中,错误率都实现了减半,有些情况下效果还会更好。这主要是因为深度学习技术以及我们的优化方式——不仅仅是算法本身,最重要是整个系统中内容的传递。”

这种内容的上传通常意味着泄密。苹果也不是第一家将 DNN 技术使用在语音识别上的公司,但是苹果证明了它在控制整个传输系统这件事上,有着先天的优势。

这首先就是因为苹果一直自己生产自己的硬件芯片,Acero 甚至表示这让他能够直接和芯片设计团队以及芯片固件工程师进行编程,让神经网络的效能最大化。Siri 团队的需求甚至还影响了 iPhone 设计中的其他很多方面。

“当然,这不仅仅是芯片。设备上设置多少个麦克风、麦克风应该如何放置、如何调整硬件、处理音频的底层软件,这些组件都需要进行协调。对比一些只是开发软件的公司,这个优势实在领先太多。”

另外一方面:当苹果的神经网络能够在一款产品中运行起来,它还能够作为其他用途中的核心技术。最终结果是,机器学习让 Siri 理解你,并且将输入方式从键入变成了听写。

比如在你写信息和邮件的时候,点击麦克风按钮、然后直接说,的确比跟软键盘较劲容易得多。

另外一个 Cue 提到的 SIri 组成是自然语言理解。2014 年 11 月起,Siri 开始使用机器学习来理解用户输入的内容,而更进一步基于深度学习的版本也在一年之后推出。

就像之前在语音识别上做的那样,机器学习也提升了用户的体验,尤其是在更灵活地理解用户命令。

Cue 为此专门拿出了自己的 iPhone 现场演示了一个例子,在调用 Siri 之后,他分别发出了 “用 Square 现金给 Jane 发 20 美元(Send Jane twenty dollars with Square Cash)”、“直接给我妻子发 20 美元(Shoot twenty bucks to my wife)”,最终的得到的结果完全一样。

苹果最近还表示,如果没有 Siri 带来的这些而便利,它们不太可能迭代出现有这个在语音控制方面如此复杂的 Apple TV。

尽管早期的 Siri 强迫你使用一个相对固定的方式说话,但是被深度学习加成之后的超级版本不仅能够区分一堆电影和音乐中的特殊选项。甚至还能处理一些模糊的概念:“我想看 Tom Hanks 主演的惊悚片(如果 Siri 足够聪明,它最终推荐的应该是《达芬奇密码》)”,在深度学习技术诞生之前,想要实现这样的效果就是做白日梦。

借助今年秋天即将发布的 iOS 10 系统,Siri 的声音成为了机器学习改良的最后一个部分。同样的,这个改变也是用神经网络直接代替了之前的第三方授权技术。

本质上来说,Siri 的发声还是依靠一个采集了很多声音的大数据库,通过把句子打散成词汇,再将词汇的语音像堆积木一样拼在一起。而机器学习所扮演的角色,则是让单词之间更加流畅,从而让 Siri 的声音更加像真人。

Acero 同样也做了一个演示——分别让 Siri 阅读两段一致的内容,第一个有着我们非常熟悉的 “机器感”,而另外一个则非常流畅。而他所说的原因也非常简单:“深度学习”。

虽然看起来这是一个很小的不起眼的细节,但 Siri 有一副更加自然的嗓音实际上能够催生出大变化。Gruber 说了下其中的差别:

音频只要更加高质量一点,用户们就会更加信任它。同时更好的语音也会引入用户,并且让用户对 Siri 的使用率更高。

当苹果最终将 Siri 对开发者开放,人们使用 Siri 的意愿,以及机器学习所带来的提升就变得更加重要了。对苹果批评者的意见进行处理是一个非常长期的过程。

也有很多人指出,苹果的第三方伙伴数量停留在了两位数,与亚马逊类似的 Alexa 拥有的、由外部开发者提供的超过 1000 种 “技巧” 相比,数量相差甚远。

苹果的回复则指出这样的对比并没有意义,因为在亚马逊产品上用户必须使用特定的语言去使用功能。而诸如 SquareCash、Uber 这样应用通过 Siri 来使用也更加自然。

与此同时,Siri 的改变也给苹果产品以及用户带来了一些改变:用户得到的是新功能以及完成相同任务的更多方式;而 Siri 服务的请求次数也在不断上涨。

014

对于不断拓展机器学习的苹果来说,最大的问题在于如何在成功的同时坚持其原有的隐私证词。苹果加密了用户的信息,这样没有任何人、哪怕是苹果自己的律师也不能查看用户数据(记得之前吃瘪的 FBI 嘛?)苹果还专门表示:不会将收集的用户数据用于广告目的。

在用户的角度这也许是值得尊敬的,但这对于吸引顶尖的人工智能人才没有帮助。

所有机器学习的专家,都希望能够拥有一大堆数据。但是因为隐私政策,苹果一直不愿使用这些数据。这种做法是否合理仍需进一步讨论,但这确实让苹果一直被人看做人工智能世界中的局外人。

这种有普遍代表性的观点,换回来的却是苹果高层的激烈抗议。他们认为在不保存用户存档的前提下,为机器学习提供所有所需文件,甚至将用户行为的实例保存下来训练神经网络都是可能的。Federighi 补充到:

这一块一直存在错误的叙述和权衡,大家认为我们是保护用户隐私的异类其实是一件好事,但是为了让绝大多数用户的利益,我们愿意给行业中的其他人指出一条发展之路。

012

我们已经找到了获取我们需要的数据,同时又能保护用户隐私的方法。

这里有两个关键问题,第一个涉及个人信息在机器学习基础系统中的处理,当用户的详细信息被神经网络所收集,那么最终我们能得到什么资料呢?

第二个问题涉及到为了训练神经网络和识别规律之时的信息聚集分类,你怎样在保证群体数据的同时剔除个人信息?苹果其实有同时解决两者的方法,Cue 表示:

有的人认为我们不能用人工智能来做这些数据分析,因为我们并不拥有这些数据,但是我们已经找到了方法,在获取信息的同时保持隐私属性。这也是我们的底线。

首先是第一个问题——保护被神经网络识别的个人喜好和信息,解决方法在于用更加独特的方法来控制软硬件。简单一点的解释就是,最为私人的东西会停留在苹果大脑之内,“我们将最敏感的信息保存在能够执行 ML 的本地”。

举个例子来说,右滑之后出现的应用列表。在设计中,这个位置需要显示你接下来最可能打开的几个应用。这些预测基于一系列因素,很多都涉及到用户行为本身,这对于其他用户来说并没有意义,苹果的处理方法就是直接在手机本地处理需求。

最终功能的效果也非常明显,预测用户接下来用什么应用基本能够达到 90% 的准确率。

苹果在设备上保存的其他个人信息主要是——用户使用 iPhone 输入法键入的内容。通过利用神经网络系统分析你的输入,苹果可以能够发现关键性的时间和物品,比如航班信息,联系方式,甚至是约会——但是信息本身只会停留在你自己的手机当中。

即便部分信息会存储在苹果的云中,也会通过特定处理,让这些存储的信息无法反向还原 “苹果公司不需要知道你的爱好,或者你什么时候打算去哪里玩”。

苹果也在尽量减少保存的信息量,对此 Federighi 也提到了一个例子:如果你的一段对话中有一部分需要进行搜索,其他公司必须将整段对话上传到云端进行分析,而苹果设备能够在数据不离开设备的条件下检测出关键信息——这是因为手机会将这些信息与手机内的 “知识库” 进行匹配。

 它很精简,但是是一个综合性知识库,包括了成千上万的定位和对象。我们之所以采用本地化的策略,是因为我们知道你在哪里。

Federighi 还透露,这个知识库其实与所有的苹果应用都有相连,包括我们用的搜索栏、地图、甚至是浏览器,可以帮助用户实现自动纠错。

它其实一直在 iPhone 后台,保持着工作状态。

接下来的问题就是机器学习的循环问题:究竟苹果的隐私政策是否真的影响到了它的神经网络算法?因为通常来说,神经网络都需要大量的数据来高效训练网络的准确度,但是苹果并没有放开使用所有用户的行为,那他们又怎么能够了解用户呢?

就像很多其他公司一样,苹果也是有利用一些公开的信息库来训练他们的神经网络,但是有些时候的确需要更加及时、更加特定的信息,这些智能从用户的数据中来。

而苹果的做法是——从用户那里拿数据,但是又确保自己不知道这些数据对应的用户是谁。之前的做法是,完全让数据匿名,然后以完全独立于 Apple ID 的另外一套系统来标识他们。(另外一套系统和 Apple ID 之间的关系只有苹果知道)

进入 iOS 10 时代之后,苹果更采用了一种全新的技术:差分隐私。能够在向大众收集数据的同时完全不去辨识区分个体。

这方面的应用例子就好像苹果向你展示最近的时髦词汇,但是他们并不在之前所提到的知识库甚至是输入法的词典当中;还有突然因为越来越多询问而 “浮出表面” 的链接;或者单个 emoji 表情的使用频率增加。

完成这些事的传统方式是把所有信息,比如你输入的所有字词,上传到服务器短,然后由他们来发现其中有意思的东西。我们也有做端到端的加密,所以我们选择不这样做。

虽然差分隐私现在听起来更像一个学术词汇,但是苹果正在尝试将这项技术普及出去。我们正在将它从研究所内转移到数以十亿记的用户面前。

Federighi  紧接着又补充了一些相关的细节:

我们在很多年前就开始做这件事,并且已经在大规模应用中获得了有趣的成果。而且,你会为它的隐私程度感到意外。

他紧接着描述了一个系统其中包括了虚拟的随机和加密机制,即便我专门写过一本关于加密的书,也很难跟随他的思维。但是总结一点来说,它实际上是把数学噪声加到苹果收集的用户信息碎片当中去。

在他看来苹果的贡献也是非常显著的,同时也非常罕见的成为了苹果对外公开的技术,因为苹果授权相应的科学家将工作细节和研究成果公制于众。

014

对于机器学习如何改变苹果的产品,这一点我们是可以肯定的。但是机器学习将如何改变苹果自身这并不明确。按照其中一种思维来说,机器学习似乎与苹果本身的气质不符。苹果一直都是一家能够全方位控制用户体验的公司。所有东西都被预先设计好,并且以最谨慎的方式写好代码。

但是当工程师开始应用及其学习,他们实际上是在让软件自身不断去发现解决方案。苹果是否能够适应当下的机器学习系统?机器学习的结果是否最终会影响实际产品的设计?这都还是变数。Federighi 对此表示:

这件事在内部其实也引起了很多争议,我们之前其实进行过非常长远的思考。之前我们都是根据自己的经验,从多个维度去控制人机交互的细节,最终达到最佳的用户体验。

但如果你尝试通过大量数据训练机器,从而模拟出用户的行为,结果苹果设计师的经验就不再占据领导地位,一切都是数据说了算。

013

苹果的典型用户将在自己的日常使用中体会到深度学习带来的改变

但是苹果没有因此而退缩,Schiller 表示:

这些新技术的确在影响着我们设计产品的思路,最终有一天我们也会因为他们能够让我们打造出更好的产品而是用他们。

这也许就是苹果最终的解决方案:苹果接下来依旧不会对采用的人工智能技术过多标榜,而是一如既往的利用它们来提升产品质量,你 iPhone 里面的那个 “大脑” 就是最好的例子。

典型的苹果用户,将在体验深度学习过程中愈发热爱苹果产品。而最令人激动的是这一切是那么难以察觉,以至于当你回过头看差别的时候不仅发出感叹:“这一切是怎么发生的?”

至于天网嘛,也许还要等等。(全文完)

注:本文由李赓、文敏柔协作编译。

题图来自 Aliexpress
插图来自 Backchannel

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中