Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

第18章|苹果入场:AI 被塞进十亿部手机

一、迟到者的命名权

2024年5月,模型公司已经把人工智能的感官打开。

前一章写过,OpenAI在5月13日发布GPT-4o,把实时语音、视觉和文本放进同一场演示;Google在5月14日的I/O上展示Gemini从搜索、邮箱、照片、Android到云服务的体系能力。[1][2] 那一周的行业情绪很像一次入口争夺战的开场:AI不再只是在网页聊天框里回答问题,它开始争夺麦克风、摄像头、屏幕、文件和日常动作。

不到一个月后,迟到者出现了。

2024年6月10日,Apple Park,WWDC 2024。苹果没有先公布一个叫“AppleGPT”的聊天机器人,也没有在开场用参数规模或榜单成绩争夺注意力。Tim Cook在苹果的年度开发者大会上宣布Apple Intelligence。这个名字带着苹果一贯的品牌秩序感:不是人工智能的通用缩写AI,而是把AI重新写成Apple Intelligence。[3]

苹果新闻稿的标题把它称作“the personal intelligence system that puts powerful generative models at the core of iPhone, iPad, and Mac”——“一套个人智能系统,将强大的生成式模型置于iPhone、iPad和Mac的核心”。[4] 在同一份公告中,Tim Cook说:“Apple Intelligence will transform what users can do with our products — and what our products can do for our users.”——“Apple Intelligence将改变用户能用我们的产品做什么,也改变我们的产品能为用户做什么。”他还说:“This is AI as only Apple can deliver it.”——“这是只有苹果才能提供的AI。”[4]

这句话当然有发布会语言的自信。苹果从iPod、iPhone到Apple Watch,长期擅长把复杂技术重新包装成消费者可以理解的日常动作。可是2024年6月的这次命名,不只是营销。它把前一年半以来由模型公司主导的叙事,拉回到苹果最熟悉的地盘:设备、系统、权限、芯片、隐私和生态分发。

OpenAI可以让模型听见人声、看见图像;Google可以把Gemini铺进搜索和Workspace;苹果控制的是承载这些感官入口的东西。麦克风在哪个App里被调用,摄像头何时被打开,通知如何显示,邮件怎样被摘要,照片能否被检索,Siri能不能跨App行动——这些不是单纯的模型能力问题,而是操作系统问题。

因此,苹果的迟到显得有些反常。它不是最早点燃生成式AI热潮的公司,也没有在2023年推出一个轰动全球的聊天机器人。可是它一旦正式入场,战场就不再只看谁的模型更会说话。AI开始被放进手机和电脑的系统路线图里,放进用户每天解锁、滑动、拍照、打字、收消息和开会的界面里。

2024年6月,苹果终于说出了AI。它说出的方式是:个人。

二、不是聊天框,是系统能力

Craig Federighi出现在WWDC主题演讲中时,苹果的软件叙事开始展开。

Apple Intelligence不是一个独立目的地。它没有被设计成用户每天主动打开的新网站,也不是把一个聊天机器人图标放到桌面上。苹果展示的路径更分散:写作工具嵌入Mail、Notes、Pages和第三方App;邮件可以显示摘要和优先信息;通知可以被归纳;用户可以生成图像和Genmoji;Siri获得新的界面和语言理解能力,能够接受打字输入,也能在苹果承诺的功能节奏中逐步利用个人上下文完成更多任务。[3][4]

苹果在介绍中写道:“It draws on your personal context to give you intelligence that’s most helpful and relevant for you.”——“它会利用你的个人上下文,为你提供最有帮助、最相关的智能。”[4]

这句话是Apple Intelligence的核心,也是它最敏感的部分。

“个人上下文”不是抽象名词。它可能是邮件里的航班时间,短信里的地址,日历上的会议,备忘录里的清单,相册中的人物和地点,也可能是屏幕上正在显示的内容。对模型公司来说,这些信息是让AI更有用的燃料;对操作系统公司来说,它们同时也是权限、合规和信任的边界。

这让普通用户的位置发生了变化。过去,用户使用聊天机器人时,通常要把问题主动复制到输入框里。复制多少,意味着交出多少。Apple Intelligence的方向则相反:让AI出现在用户已经工作的地方。用户写邮件时,它在那里;用户清理通知时,它在那里;用户想让Siri帮忙时,它在那里;用户编辑文本、生成图片、整理信息时,它也在那里。

这听起来更自然,也更难管理。一个打开网页的AI工具,边界相对清晰;一个系统级AI,边界会散落在邮件、相册、日历、文件、输入法、通知中心和语音助手里。便利性不是免费获得的,它会把用户带到一个新的交换面前:为了少复制、少搜索、少切换App,用户是否愿意让系统理解更多个人数据?

苹果的回答不是“我们也有一个聊天框”,而是“聊天框不是唯一入口”。这是它与OpenAI和Google的差异。OpenAI在5月展示的是一把尖刀:实时、多模态、拟人化。Google展示的是一张大网:模型、搜索、Android、Workspace和云服务。苹果展示的是道路本身:用户不必去找AI,AI被分布到系统路径中。

这一点对开发者同样重要。WWDC本来就是开发者大会,坐在屏幕前观看主题演讲的不只是消费者,还有大量iOS、iPadOS和macOS开发者。对他们来说,Apple Intelligence意味着新的系统能力,也意味着新的约束。第三方App可以受益于系统写作工具和平台能力,但真正决定体验入口、权限提示和默认交互方式的,仍然是苹果。

AI行业在这里出现了一种熟悉的荒诞感:创业公司用巨大模型告诉世界“未来已经来了”,手机厂商则用系统弹窗决定未来能不能读取一张照片。

三、十亿级生态,与有限首发

“AI被塞进十亿部手机”是一种趋势判断,不是一个发布当天已经完成的事实。

苹果的生态规模足够巨大。2024年2月,苹果在2024财年第一财季电话会上披露,全球活跃设备安装基数已经超过22亿台。Tim Cook说:“We are pleased to announce that our installed base of active devices has now surpassed 2.2 billion, reaching an all-time high across all products and geographic segments.”——苹果活跃设备安装基数超过22亿,并在所有产品和地区创下历史新高。[5]

这组数字说明的是分发能力,不是Apple Intelligence的即时覆盖范围。苹果拥有硬件、系统、芯片、App Store、开发者生态、支付关系和长期用户习惯。一个新AI功能如果进入iOS、iPadOS和macOS的系统更新,它不需要从零开始教育用户访问一个新网站。它可以被放进用户已经熟悉的动作里。

但事实限定必须放在同等重要的位置。苹果在6月10日公告中写明,Apple Intelligence将在2024年秋季以beta形式开始提供,初期为美国英语;首批支持设备包括iPhone 15 Pro、iPhone 15 Pro Max,以及搭载M1或更新芯片的iPad和Mac。[4]

这意味着两件事。

第一,发布当天并不是所有iPhone都获得Apple Intelligence。许多仍在正常使用的iPhone不在首批名单中,普通iPhone 15也不在首批支持范围内。对拿着旧款iPhone的用户来说,发布会之后的第一项现实动作,不是体验“个人智能”,而是查看自己的设备是否符合条件。

第二,生成式AI进入手机系统,不只是安装一个App的问题。它需要端侧算力、内存、神经网络加速器、电池管理、散热控制,也需要系统级权限、隐私架构和云端补位。AI公司可以在数据中心里追求更大模型;手机厂商必须回答另一个问题:这项能力能不能每天稳定运行在一块薄薄的玻璃和金属里?

这也是苹果首批支持设备名单的意义。它让AI竞争从模型榜单延伸到芯片周期。M1之后的iPad和Mac、A17 Pro所在的iPhone 15 Pro系列,成为Apple Intelligence第一阶段的硬件门槛。过去,用户更换手机的理由可能是相机、屏幕、电池和外观;现在,AI能力也可能成为新的升级理由。

这对个人并不总是浪漫的。发布会上的“个人智能”落到现实里,可能变成一张设备兼容列表、一套语言限制、一个beta标签,以及一次是否换机的消费决策。AI被塞进手机之前,先被塞进了硬件分层和产品周期。

苹果并没有掩饰这种分阶段。它的入场方式很克制:不宣布所有功能立刻可用,不声称所有设备马上覆盖,也不把自家模型描述成行业终点。它真正宣布的是方向:生成式AI将成为iPhone、iPad和Mac系统的一部分,而不是系统之外的附加玩具。

四、Private Cloud Compute:隐私作为架构

苹果知道,系统级AI必须先回答一个问题:数据去哪儿?

Apple Intelligence的许多任务可以在设备端处理,但苹果没有假装所有请求都能留在本地。更复杂的请求需要更大模型和更多计算资源。于是,苹果提出Private Cloud Compute,把一部分AI计算放到运行Apple silicon的服务器上,并把这套云端能力包装成隐私架构的一部分。[6]

苹果在安全研究博客中写道:“Your data is never stored or made accessible to Apple, and is used only to fulfill your request.”——“你的数据绝不会被存储,也不会被苹果访问,只会用于完成你的请求。”[6] 苹果还称,Private Cloud Compute使用Apple silicon服务器;服务器软件将可供独立专家检查;设备只会把请求发送到可以被公开验证、运行相应软件的服务器。[6]

这是苹果式的防御,也是一种营销。

说它是防御,是因为苹果无法回避云端AI的信任问题。只要请求离开设备,用户、企业客户、监管者和安全研究者都会追问:发送了哪些数据?谁可以访问?是否保存?能否被审计?第三方模型是否参与?如果发生攻击,责任如何界定?

说它是营销,是因为苹果长期把隐私作为品牌资产。AI越接近个人数据,隐私越不能只是广告语。苹果需要把“相信我们”改写成“看我们的架构”。端侧优先、Apple silicon服务器、最小化发送、不可存储、可验证软件,这些技术描述共同构成了Apple Intelligence的信任叙事。

但这不意味着风险消失。系统级AI面对的攻击面比聊天机器人更复杂:恶意文档可能诱导模型泄露信息,网页内容可能进行提示注入,跨App动作可能触发错误权限,云端实现也可能存在漏洞。Private Cloud Compute是苹果对云端AI不信任问题的制度化回应,不是魔法盾牌。

同一时期,微软Recall的风波给整个行业提供了反面压力。Recall最初作为Copilot+ PCs的重要功能之一,试图让电脑帮助用户找回过去看过的内容。它的方向与“个人上下文”高度一致:系统越记得用户做过什么,AI越能帮用户回到过去的工作状态。可是这个设想也迅速引发隐私与安全质疑,焦点集中在屏幕快照、敏感数据和本地存储的访问风险上。

微软在2024年6月7日宣布调整Recall,把它改为选择加入,并增加Windows Hello等安全要求。[7] 6月13日,微软进一步宣布:“Recall will shift from a preview experience broadly available for Copilot+ PCs on June 18, 2024, to a preview available first in the Windows Insider Program…”——“Recall将从原定于2024年6月18日面向Copilot+ PC广泛提供的预览体验,调整为先在Windows Insider Program中提供的预览。”[8]

苹果和微软面对的是同一个悖论:AI越懂你,越有用;AI越懂你,越可怕。行业荒诞感正在于此。产品经理希望AI记住一切,安全工程师必须证明这些记忆不会被别人拿走。用户希望系统少问几次,监管者和企业IT部门则希望系统每一次都说清楚。

苹果在发布Apple Intelligence时把Private Cloud Compute放到核心叙事中,说明它很清楚这场竞争不只发生在模型能力上。2024年的AI入口战争,隐私已经不是后勤部门的补丁,而是发布会正片的一部分。

五、ChatGPT 从门外进入 Siri

苹果没有把全部赌注押在自研模型上。

WWDC 2024上,苹果宣布与OpenAI合作,把ChatGPT接入Siri和系统写作工具。OpenAI在公告中写道:“Apple is integrating ChatGPT into experiences within iOS, iPadOS, and macOS…”——“苹果正在将ChatGPT集成进iOS、iPadOS和macOS的体验中。”OpenAI还称,这一集成由GPT-4o提供支持,用户无需创建账号即可访问;ChatGPT订阅用户可以连接账号使用付费功能。[9]

这一步把入口战争的结构暴露得很清楚。

对OpenAI来说,苹果给了它一个消费级系统入口。ChatGPT已经拥有巨大的独立产品影响力,但独立App和网页仍然要求用户主动打开。进入Siri和写作工具之后,ChatGPT有机会出现在系统流程内部:当Siri遇到适合外部模型的请求,当用户在写作工具中需要更强生成能力,ChatGPT可以被调用。

对苹果来说,OpenAI不是新主人,而是外部扩展。苹果在公告中强调,用户向ChatGPT发送任何问题以及相关文档或照片之前,都会被询问确认:“Users are asked before any questions are sent to ChatGPT, along with any documents or photos…”[4] 苹果还称,用户的IP地址会被隐藏,OpenAI不会存储未登录用户的请求;如果用户连接ChatGPT账号,则适用OpenAI的数据使用政策。[4]

这个设计很苹果:把外部模型接进来,但放在门禁之后;承认OpenAI的能力,但把调用动作放进苹果定义的系统界面;给用户无需账号的入口,又保留账号连接和订阅能力。它既是合作,也是控制。

这同样说明苹果入场的边界。苹果拥有设备、系统和芯片,却仍然在2024年6月选择接入OpenAI。这不是苹果放弃自研,而是承认当时最前沿大模型能力仍有外部依赖。模型公司和操作系统公司开始互相需要:OpenAI需要苹果的入口,苹果需要OpenAI的能力,双方都需要把数据流向解释清楚。

这里出现了一个更深的权力问题。如果ChatGPT可以被接入Siri,其他模型将来是否也可以?苹果会不会成为消费级AI的调度层?同一个用户请求,系统可以判断由端侧模型处理、由Private Cloud Compute处理,还是交给外部模型处理。这个判断一旦发生在操作系统层,苹果就不只是硬件公司,也不只是App平台,它会成为AI能力进入个人生活的闸门。

对独立开发者来说,这种闸门既诱人也危险。诱人之处在于,系统级AI能力可能让小团队用更少工程量获得写作、摘要、图像和语义理解能力。危险之处在于,入口越系统化,平台规则越重要。开发者能用什么能力、在什么场景触发、如何向用户解释权限,最终仍取决于苹果制定的边界。

OpenAI进入了Siri。可是Siri不属于OpenAI。

六、Musk 的警报,和企业管理员的问题

争议很快出现。

2024年6月10日,Elon Musk在X上写道:“If Apple integrates OpenAI at the OS level, then Apple devices will be banned at my companies. That is an unacceptable security violation.”——“如果苹果在操作系统层面集成OpenAI,那么苹果设备将在我的公司被禁用。这是不可接受的安全违规。”他还发帖称,访客必须在门口交出苹果设备,设备会被存放在法拉第笼里。[10]

这些表述带有Musk一贯的高强度传播风格。它不等同于法律结论,也不改变苹果公告中关于用户确认和隐私限制的具体说明。但它击中了Apple Intelligence发布后最敏感的公共疑问:系统层AI到底会把什么数据发给谁?

这不能只看成个人口水战。Musk与OpenAI有长期历史,xAI也在构建自己的模型产品;OpenAI与苹果合作,可能获得更大消费入口;微软既是OpenAI的重要合作伙伴,又在Windows和Copilot+ PCs上推进系统级AI;Google拥有Android和Gemini;苹果拥有iOS、iPadOS、macOS和硬件生态。几家公司围绕模型、系统、云、芯片、数据和入口形成交错关系,任何一次合作都会被竞争者放大成安全、商业和阵营问题。

对企业IT管理员而言,这种争议不是发布会段子。公司设备里有邮件、文档、客户资料、源代码、合同、会议记录和身份凭证。过去,管理者主要关心App安装、移动设备管理、数据加密和网络访问;现在,他们还要理解AI请求的路径:哪些任务在设备端处理,哪些请求进入苹果私有云,哪些内容会在用户确认后发给ChatGPT,登录账号与未登录状态的数据政策有什么不同。

这也是微软Recall风波引起广泛关注的原因。它让企业和个人用户提前看见一个场景:当AI功能默认靠近屏幕、文件和历史活动时,哪怕意图是帮助用户找回信息,也必须面对安全审查。苹果在WWDC上选择反复解释Private Cloud Compute和ChatGPT确认机制,正是因为它不能假设用户会天然接受“更聪明的系统”。

Musk的警报在传播上极端,但背后的问题并不极端。AI进入操作系统后,安全边界不再是“不要把机密复制进聊天框”这么简单。因为用户可能不再复制,系统本身就在旁边。它能总结邮件,理解通知,生成回复,查看屏幕内容,并在未来执行跨App动作。便利性把风险从用户主动输入,推向系统默认可见的上下文。

苹果的回答是分层:设备端处理优先,复杂请求进入Private Cloud Compute,外部ChatGPT调用前询问用户。这个答案比简单地把聊天机器人接进系统更完整,也更符合苹果长期的隐私品牌。但它仍然需要在真实使用中接受检验。发布会能说明设计目标,不能替代安全研究、企业部署、监管审查和用户长期经验。

AI行业在这一刻从炫技进入治理。一个语音演示可以让观众兴奋,一个隐私弹窗却决定企业是否敢开功能。前者让AI像科幻电影,后者让AI像采购审批表。两者都是真实的2024年。

七、战场进入手机

苹果不是第一个冲进生成式AI热潮的公司。它没有发布ChatGPT,没有发布GPT-4,没有发布Sora,也没有像Google那样在I/O上展示覆盖搜索、邮箱、相册、Android和云服务的AI矩阵。到2024年6月,它甚至不是最激进的大模型叙事者。

但它拥有另一种稀缺资源:用户日常生活的承载层。

手机不是普通终端。它知道用户的位置、照片、通知、联系人、支付、身份验证、日程和声音。电脑也不只是生产工具,它承载文档、网页、代码、会议和企业系统。当AI进入这些设备,竞争就不再只是“哪个模型回答更好”,而是“谁有权在什么条件下理解你的生活”。

Apple Intelligence首发范围有限,beta节奏谨慎,初期语言和设备门槛都很明确。不能把2024年6月10日写成“所有iPhone突然拥有AI”的神话。更准确的说法是:苹果把生成式AI正式放进了iPhone、iPad和Mac的系统路线图,并把行业竞争从云端模型推进到端侧芯片、系统权限、隐私架构和生态合作。

这件事的象征意义大于即时覆盖率。

OpenAI在5月展示了实时多模态的尖刀,Google在5月展示了Gemini体系的大网。苹果在6月展示的是入口本身:一套个人智能系统,可以在设备端运行,可以在私有云补位,可以在必要时调用ChatGPT,可以被嵌入用户每天触摸的界面。它不是把AI放在远处让人访问,而是把AI放进用户已经拥有的设备里。

这让下一阶段的矛盾更加清晰。AI越靠近个人,就越有用;AI越有用,就越需要权限;权限越深,信任成本越高。模型能力仍然重要,但入口、芯片、隐私、操作系统和监管开始同样重要。

2024年6月,迟到的苹果改变了战场形状。AI战争不再只是云端模型公司的速度竞赛,也不再只是发布会上谁的演示更像科幻电影。它进入了手机、电脑和操作系统,进入了通知中心、邮件、照片、Siri和写作工具。

当AI进入操作系统,问题不再只是“哪个模型回答得更好”,而是:谁有权读取你的屏幕、邮件、照片、日程和声音。

苹果给出了自己的答案。行业还远没有给出最后判决。

参考文献

  1. OpenAI,“Hello GPT-4o”,2024.05.13。
  2. Google,“Google I/O 2024 Keynote”,2024.05.14。
  3. Apple,“WWDC 2024 Keynote”,2024.06.10。
  4. Apple,“Introducing Apple Intelligence, the personal intelligence system that puts powerful generative models at the core of iPhone, iPad, and Mac”,2024.06.10。
  5. Apple,“Q1 2024 Earnings Call”,2024.02.01。
  6. Apple Security Research,“Private Cloud Compute: A new frontier for AI privacy in the cloud”,2024.06.10。
  7. Microsoft,“Update on the Recall preview feature for Copilot+ PCs”,2024.06.07。
  8. Microsoft,“Update on the Recall preview feature for Copilot+ PCs”,2024.06.13。
  9. OpenAI,“OpenAI and Apple announce partnership”,2024.06.10。
  10. Elon Musk,X posts on Apple and OpenAI integration,2024.06.10。