你的 iPhone 即将变聪明!苹果每年砸 10 亿美元,用上谷歌最强 AI

产品

2 小时前

苹果为自己的 AI 短板,交了一笔不菲的学费。

根据彭博社记者 Mark Gurman 最新爆料,苹果正接近与谷歌达成一项为期多年的协议——每年支付约 10 亿美元, 换取谷歌 Gemini 模型为新版 Siri 提供核心 AI 能力。

按照计划,Gemini 将负责 Siri 中最关键的摘要器和任务规划功能, 而其他功能仍由苹果自家的小型模型处理。
协议的关键条款是:Gemini 将运行在苹果的「私有云计算」服务器上, 用户数据不会接触谷歌的系统。当然,国内用户目前用不上 Gemini,苹果会为中国市场准备另一套方案。

如此巨额的投入,只为给 AI Siri 的按时交付上一道最重要的保险。

目前苹果最好的选择

在这场交易里, 苹果要的是什么?

答案很简单:时间。

在 2024 年 6 月的 WWDC 开发者大会上,苹果展示了由 Apple Intelligence 驱动的新版 Siri,包括更强的上下文理解、屏幕感知、跨应用操作等新功能。

根据苹果当时的表述和媒体报道,这些新版 Siri 功能最初被安排在 iOS 18 的更新周期内逐步推出,但除了一些基础 AI 功能反复闹笑话,许多重要的 AI 功能也反复跳票,最早发布时间的统一口径甚至来到了2026 年春节。

如此漫长的延期背后,暴露的正是苹果在大模型技术上的短板。为了弥补这一差距,苹果不得不向外部寻求支持。报道称,谷歌给苹果提供的 Gemini 模型拥有 1.2 万亿参数,远超苹果现有的 1500 亿参数模型。

作为参考, 今年 7 月份, 月之暗面联合 PPIO 首发开源了 Kimi-K2-Instruct 模型, 其总参数达 1 万亿, 成为首个突破万亿参数的国产开源模型。

这种参数规模上的巨大差距, 直接反映在模型的推理能力、知识广度和任务处理的复杂度上——这正是新版 Siri 实现「摘要器」和「任务规划」等核心功能所必需的技术基础。

而苹果要在短时间内训练出参数规模相当、性能可比的自研模型, 不仅需要海量算力投入和高质量训练数据, 更需要稳定且经验丰富的研发团队。

但问题的核心在于, 苹果 AI 团队正面临严重的人才流失。

自今年 7 月至今, 苹果 AI 团队已有约数十名核心成员跳槽。

苹果基础模型团队负责人庞若鸣被 Meta 以 2 亿美元挖走, 负责 Siri 智能搜索项目的 Ke Yang 刚担任负责人不久就决定投奔 Meta, 多位去年发表 AI 论文的关键研究员也相继出走 OpenAI、Cohere、xAI……

这支本就 100 多人的小团队, 在最需要攻坚的时刻折损了主将。

这是一场不折不扣的信心危机,当你的员工用脚投票时, 说明问题已经不是多发几个月工资能解决的了。苹果的保密文化曾经是它的护城河,严格的信息管控让产品发布会永远充满惊喜, 让竞争对手无从模仿。

但在 AI 时代, 这套打法失效了。研究人员不能自由发表论文, 无法在学术界建立声誉;缺乏开源交流, 意味着错过整个 AI 社区的快速迭代。

更关键的是,苹果算力资源起步较晚,训练数据因隐私政策限制而相对匮乏。

当 OpenAI 和谷歌投入数万张 GPU 训练超大规模模型时,苹果需要在用户隐私保护和数据使用规模之间寻找平衡,这在一定程度上制约了其大模型的训练进度。

于是, 苹果别无选择, 只能「向外求援」。

为什么是谷歌, 而不是别人?

根据过往的报道,在选择合作伙伴的时候,苹果评估了 OpenAI 的 ChatGPT、Anthropic 的 Claude, 最终选中了谷歌 Gemini。

尽管有些马后炮,这个选择看似意外, 实则必然。

首先, 谷歌足够强大, 也足够稳定。

作为 AI 领域的老牌巨头, Google 旗下的 Gemini 2.5 Pro 在大多数大模型排行榜上名列前茅, 技术实力毋庸置疑。这种技术实力的强大也反映在 Token 使用量上。

上个月,谷歌 AI 团队的「宣传委员」Logan Kilpatrick 就在社交媒体上透露,谷歌每月处理的 Tokens 用量达到谷歌1.3 千万亿,算力消耗创行业历史纪录。

此外,谷歌的优势不止于此。

作为海外为数不多 AI 全栈自研的巨头,谷歌拥有全球顶尖的云计算基础设施和工程团队, 能支撑 Siri 每日海量的请求。这是 OpenAI 和 Anthropic 这样的初创公司难以企及的。

合作的历史也为这次交易铺平了道路。

从初代 iPhone 内置谷歌地图和 YouTube, 到 Safari 每年支付超 200 亿美元的搜索引擎协议, 再到苹果将部分 iCloud 数据存储在谷歌云上——两家公司早已形成了一种「竞合」的微妙平衡。这种多年累积的信任, 是新创公司无法提供的。

谷歌愿意妥协,这点至关重要。

按照协议, 谷歌 Gemini 模型将运行在苹果的「私有云计算」服务器上, 用户数据不会接触谷歌的系统。这意味着苹果既能享受谷歌的技术, 又能保持对用户隐私的掌控。注意,这正是苹果最在乎的底线。

值得一提的是,战略层面的协同效应同样不容忽视。

苹果正将新版 Siri 定位为设备上的新一代搜索入口。如果 Siri 背后的知识和推理由谷歌提供, 相当于延续并升级了双方在搜索领域的联盟——当用户向 Siri 提问时, 依然是谷歌的技术在发挥作用, 只不过形式从关键词搜索变成了对话式查询。

这对谷歌而言同样有利:即使用户不直接打开 Chrome, 在苹果生态里的搜索活动仍由谷歌间接支持。

可以说, 在苹果「只能从外面选」的困境下, 谷歌是唯一一个在技术、信任、控制权和商业条款上都能满足要求的选项。

一场体面的救场

集成谷歌 Gemini,最直接的好处是,苹果按时交货的概率显著提升了。

如果坚持纯自研路线,考虑到人才流失和技术差距,2026年3月这个时间点能否达成充满不确定性。但通过引入谷歌已开发完备的模型,苹果获得了一条现成的「捷径」。

据悉,这项 Siri 改造计划由 Vision Pro 头显的负责人 Mike Rockwell 和软件工程主管 Craig Federighi 主导,而新版 Siri 本身则在苹果内部代号为「Linwood」。

从人事安排上就能看出,苹果对这次升级版 AI SIri 的重视程度。

Gemini 将负责 Siri 中的摘要器和任务规划功能,也就是整合信息并决定如何执行复杂任务的核心能力,其他功能仍由苹果自家模型处理。这种「双轨并行」的策略,既满足了近期产品需求,又为内部研发争取了缓冲空间。

更值得注意的是,苹果的技术架构本身就为这种集成做好了准备。

新版 Siri 采用的是模块化设计:设备端的小模型负责简单任务和隐私敏感操作,云端的大模型负责复杂推理和知识查询。这种架构天然支持「插拔式」的模型切换,第三方 AI 可以接入系统,而不需要推倒重来。

当然,国行版 AI Siri 预计不会使用 Gemini。

苹果必须为不同市场准备不同的 AI 方案,比如与阿里、百度等本土厂商合作,也可能是使用自研模型的特别版本。而这种灵活性,也是模块化架构的优势所在。

只是,深层的问题没有解决。

过去,苹果习惯了「后发制人」的节奏,每一次,它都能靠对产品体验的极致打磨,后来居上。这种策略建立在一个前提上:技术进化是线性的,你总有时间追赶。

但 AI 打破了这个规律。

时至今日,尽管关于 Scaling Laws 是否持续有效的讨论仍在继续,但先发优势在 AI 领域确实更加明显:每一代模型的训练都建立在前代基础上,数据积累、用户反馈、工程优化都需要大量的时间沉淀。

十亿美元买来的,其实是一个喘息的机会。

这也是苹果趁用户耐心尚存,挽回 AI Siri 声誉的最后窗口,因为无论是吃瓜群众,产品用户,还是苹果高管,都清醒地意识到,留给苹果犯错的余地,已经所剩无几了。

登录,参与讨论前请先登录

评论在审核通过后将对所有人可见

正在加载中