第18章|苹果入场:AI 被塞进十亿部手机
一、迟到者的命名权
2024年5月,模型公司已经把人工智能的感官打开。
前一章写过,OpenAI在5月13日发布GPT-4o,把实时语音、视觉和文本放进同一场演示;Google在5月14日的I/O上展示Gemini从搜索、邮箱、照片、Android到云服务的体系能力。[1][2] 那一周的行业情绪很像一次入口争夺战的开场:AI不再只是在网页聊天框里回答问题,它开始争夺麦克风、摄像头、屏幕、文件和日常动作。
不到一个月后,迟到者出现了。
2024年6月10日,Apple Park,WWDC 2024。苹果没有先公布一个叫“AppleGPT”的聊天机器人,也没有在开场用参数规模或榜单成绩争夺注意力。Tim Cook在苹果的年度开发者大会上宣布Apple Intelligence。这个名字带着苹果一贯的品牌秩序感:不是人工智能的通用缩写AI,而是把AI重新写成Apple Intelligence。[3]
苹果新闻稿的标题把它称作“the personal intelligence system that puts powerful generative models at the core of iPhone, iPad, and Mac”——“一套个人智能系统,将强大的生成式模型置于iPhone、iPad和Mac的核心”。[4] 在同一份公告中,Tim Cook说:“Apple Intelligence will transform what users can do with our products — and what our products can do for our users.”——“Apple Intelligence将改变用户能用我们的产品做什么,也改变我们的产品能为用户做什么。”他还说:“This is AI as only Apple can deliver it.”——“这是只有苹果才能提供的AI。”[4]
这句话当然有发布会语言的自信。苹果从iPod、iPhone到Apple Watch,长期擅长把复杂技术重新包装成消费者可以理解的日常动作。可是2024年6月的这次命名,不只是营销。它把前一年半以来由模型公司主导的叙事,拉回到苹果最熟悉的地盘:设备、系统、权限、芯片、隐私和生态分发。
OpenAI可以让模型听见人声、看见图像;Google可以把Gemini铺进搜索和Workspace;苹果控制的是承载这些感官入口的东西。麦克风在哪个App里被调用,摄像头何时被打开,通知如何显示,邮件怎样被摘要,照片能否被检索,Siri能不能跨App行动——这些不是单纯的模型能力问题,而是操作系统问题。
因此,苹果的迟到显得有些反常。它不是最早点燃生成式AI热潮的公司,也没有在2023年推出一个轰动全球的聊天机器人。可是它一旦正式入场,战场就不再只看谁的模型更会说话。AI开始被放进手机和电脑的系统路线图里,放进用户每天解锁、滑动、拍照、打字、收消息和开会的界面里。
2024年6月,苹果终于说出了AI。它说出的方式是:个人。
二、不是聊天框,是系统能力
Craig Federighi出现在WWDC主题演讲中时,苹果的软件叙事开始展开。
Apple Intelligence不是一个独立目的地。它没有被设计成用户每天主动打开的新网站,也不是把一个聊天机器人图标放到桌面上。苹果展示的路径更分散:写作工具嵌入Mail、Notes、Pages和第三方App;邮件可以显示摘要和优先信息;通知可以被归纳;用户可以生成图像和Genmoji;Siri获得新的界面和语言理解能力,能够接受打字输入,也能在苹果承诺的功能节奏中逐步利用个人上下文完成更多任务。[3][4]
苹果在介绍中写道:“It draws on your personal context to give you intelligence that’s most helpful and relevant for you.”——“它会利用你的个人上下文,为你提供最有帮助、最相关的智能。”[4]
这句话是Apple Intelligence的核心,也是它最敏感的部分。
“个人上下文”不是抽象名词。它可能是邮件里的航班时间,短信里的地址,日历上的会议,备忘录里的清单,相册中的人物和地点,也可能是屏幕上正在显示的内容。对模型公司来说,这些信息是让AI更有用的燃料;对操作系统公司来说,它们同时也是权限、合规和信任的边界。
这让普通用户的位置发生了变化。过去,用户使用聊天机器人时,通常要把问题主动复制到输入框里。复制多少,意味着交出多少。Apple Intelligence的方向则相反:让AI出现在用户已经工作的地方。用户写邮件时,它在那里;用户清理通知时,它在那里;用户想让Siri帮忙时,它在那里;用户编辑文本、生成图片、整理信息时,它也在那里。
这听起来更自然,也更难管理。一个打开网页的AI工具,边界相对清晰;一个系统级AI,边界会散落在邮件、相册、日历、文件、输入法、通知中心和语音助手里。便利性不是免费获得的,它会把用户带到一个新的交换面前:为了少复制、少搜索、少切换App,用户是否愿意让系统理解更多个人数据?
苹果的回答不是“我们也有一个聊天框”,而是“聊天框不是唯一入口”。这是它与OpenAI和Google的差异。OpenAI在5月展示的是一把尖刀:实时、多模态、拟人化。Google展示的是一张大网:模型、搜索、Android、Workspace和云服务。苹果展示的是道路本身:用户不必去找AI,AI被分布到系统路径中。
这一点对开发者同样重要。WWDC本来就是开发者大会,坐在屏幕前观看主题演讲的不只是消费者,还有大量iOS、iPadOS和macOS开发者。对他们来说,Apple Intelligence意味着新的系统能力,也意味着新的约束。第三方App可以受益于系统写作工具和平台能力,但真正决定体验入口、权限提示和默认交互方式的,仍然是苹果。
AI行业在这里出现了一种熟悉的荒诞感:创业公司用巨大模型告诉世界“未来已经来了”,手机厂商则用系统弹窗决定未来能不能读取一张照片。
三、十亿级生态,与有限首发
“AI被塞进十亿部手机”是一种趋势判断,不是一个发布当天已经完成的事实。
苹果的生态规模足够巨大。2024年2月,苹果在2024财年第一财季电话会上披露,全球活跃设备安装基数已经超过22亿台。Tim Cook说:“We are pleased to announce that our installed base of active devices has now surpassed 2.2 billion, reaching an all-time high across all products and geographic segments.”——苹果活跃设备安装基数超过22亿,并在所有产品和地区创下历史新高。[5]
这组数字说明的是分发能力,不是Apple Intelligence的即时覆盖范围。苹果拥有硬件、系统、芯片、App Store、开发者生态、支付关系和长期用户习惯。一个新AI功能如果进入iOS、iPadOS和macOS的系统更新,它不需要从零开始教育用户访问一个新网站。它可以被放进用户已经熟悉的动作里。
但事实限定必须放在同等重要的位置。苹果在6月10日公告中写明,Apple Intelligence将在2024年秋季以beta形式开始提供,初期为美国英语;首批支持设备包括iPhone 15 Pro、iPhone 15 Pro Max,以及搭载M1或更新芯片的iPad和Mac。[4]
这意味着两件事。
第一,发布当天并不是所有iPhone都获得Apple Intelligence。许多仍在正常使用的iPhone不在首批名单中,普通iPhone 15也不在首批支持范围内。对拿着旧款iPhone的用户来说,发布会之后的第一项现实动作,不是体验“个人智能”,而是查看自己的设备是否符合条件。
第二,生成式AI进入手机系统,不只是安装一个App的问题。它需要端侧算力、内存、神经网络加速器、电池管理、散热控制,也需要系统级权限、隐私架构和云端补位。AI公司可以在数据中心里追求更大模型;手机厂商必须回答另一个问题:这项能力能不能每天稳定运行在一块薄薄的玻璃和金属里?
这也是苹果首批支持设备名单的意义。它让AI竞争从模型榜单延伸到芯片周期。M1之后的iPad和Mac、A17 Pro所在的iPhone 15 Pro系列,成为Apple Intelligence第一阶段的硬件门槛。过去,用户更换手机的理由可能是相机、屏幕、电池和外观;现在,AI能力也可能成为新的升级理由。
这对个人并不总是浪漫的。发布会上的“个人智能”落到现实里,可能变成一张设备兼容列表、一套语言限制、一个beta标签,以及一次是否换机的消费决策。AI被塞进手机之前,先被塞进了硬件分层和产品周期。
苹果并没有掩饰这种分阶段。它的入场方式很克制:不宣布所有功能立刻可用,不声称所有设备马上覆盖,也不把自家模型描述成行业终点。它真正宣布的是方向:生成式AI将成为iPhone、iPad和Mac系统的一部分,而不是系统之外的附加玩具。
四、Private Cloud Compute:隐私作为架构
苹果知道,系统级AI必须先回答一个问题:数据去哪儿?
Apple Intelligence的许多任务可以在设备端处理,但苹果没有假装所有请求都能留在本地。更复杂的请求需要更大模型和更多计算资源。于是,苹果提出Private Cloud Compute,把一部分AI计算放到运行Apple silicon的服务器上,并把这套云端能力包装成隐私架构的一部分。[6]
苹果在安全研究博客中写道:“Your data is never stored or made accessible to Apple, and is used only to fulfill your request.”——“你的数据绝不会被存储,也不会被苹果访问,只会用于完成你的请求。”[6] 苹果还称,Private Cloud Compute使用Apple silicon服务器;服务器软件将可供独立专家检查;设备只会把请求发送到可以被公开验证、运行相应软件的服务器。[6]
这是苹果式的防御,也是一种营销。
说它是防御,是因为苹果无法回避云端AI的信任问题。只要请求离开设备,用户、企业客户、监管者和安全研究者都会追问:发送了哪些数据?谁可以访问?是否保存?能否被审计?第三方模型是否参与?如果发生攻击,责任如何界定?
说它是营销,是因为苹果长期把隐私作为品牌资产。AI越接近个人数据,隐私越不能只是广告语。苹果需要把“相信我们”改写成“看我们的架构”。端侧优先、Apple silicon服务器、最小化发送、不可存储、可验证软件,这些技术描述共同构成了Apple Intelligence的信任叙事。
但这不意味着风险消失。系统级AI面对的攻击面比聊天机器人更复杂:恶意文档可能诱导模型泄露信息,网页内容可能进行提示注入,跨App动作可能触发错误权限,云端实现也可能存在漏洞。Private Cloud Compute是苹果对云端AI不信任问题的制度化回应,不是魔法盾牌。
同一时期,微软Recall的风波给整个行业提供了反面压力。Recall最初作为Copilot+ PCs的重要功能之一,试图让电脑帮助用户找回过去看过的内容。它的方向与“个人上下文”高度一致:系统越记得用户做过什么,AI越能帮用户回到过去的工作状态。可是这个设想也迅速引发隐私与安全质疑,焦点集中在屏幕快照、敏感数据和本地存储的访问风险上。
微软在2024年6月7日宣布调整Recall,把它改为选择加入,并增加Windows Hello等安全要求。[7] 6月13日,微软进一步宣布:“Recall will shift from a preview experience broadly available for Copilot+ PCs on June 18, 2024, to a preview available first in the Windows Insider Program…”——“Recall将从原定于2024年6月18日面向Copilot+ PC广泛提供的预览体验,调整为先在Windows Insider Program中提供的预览。”[8]
苹果和微软面对的是同一个悖论:AI越懂你,越有用;AI越懂你,越可怕。行业荒诞感正在于此。产品经理希望AI记住一切,安全工程师必须证明这些记忆不会被别人拿走。用户希望系统少问几次,监管者和企业IT部门则希望系统每一次都说清楚。
苹果在发布Apple Intelligence时把Private Cloud Compute放到核心叙事中,说明它很清楚这场竞争不只发生在模型能力上。2024年的AI入口战争,隐私已经不是后勤部门的补丁,而是发布会正片的一部分。
五、ChatGPT 从门外进入 Siri
苹果没有把全部赌注押在自研模型上。
WWDC 2024上,苹果宣布与OpenAI合作,把ChatGPT接入Siri和系统写作工具。OpenAI在公告中写道:“Apple is integrating ChatGPT into experiences within iOS, iPadOS, and macOS…”——“苹果正在将ChatGPT集成进iOS、iPadOS和macOS的体验中。”OpenAI还称,这一集成由GPT-4o提供支持,用户无需创建账号即可访问;ChatGPT订阅用户可以连接账号使用付费功能。[9]
这一步把入口战争的结构暴露得很清楚。
对OpenAI来说,苹果给了它一个消费级系统入口。ChatGPT已经拥有巨大的独立产品影响力,但独立App和网页仍然要求用户主动打开。进入Siri和写作工具之后,ChatGPT有机会出现在系统流程内部:当Siri遇到适合外部模型的请求,当用户在写作工具中需要更强生成能力,ChatGPT可以被调用。
对苹果来说,OpenAI不是新主人,而是外部扩展。苹果在公告中强调,用户向ChatGPT发送任何问题以及相关文档或照片之前,都会被询问确认:“Users are asked before any questions are sent to ChatGPT, along with any documents or photos…”[4] 苹果还称,用户的IP地址会被隐藏,OpenAI不会存储未登录用户的请求;如果用户连接ChatGPT账号,则适用OpenAI的数据使用政策。[4]
这个设计很苹果:把外部模型接进来,但放在门禁之后;承认OpenAI的能力,但把调用动作放进苹果定义的系统界面;给用户无需账号的入口,又保留账号连接和订阅能力。它既是合作,也是控制。
这同样说明苹果入场的边界。苹果拥有设备、系统和芯片,却仍然在2024年6月选择接入OpenAI。这不是苹果放弃自研,而是承认当时最前沿大模型能力仍有外部依赖。模型公司和操作系统公司开始互相需要:OpenAI需要苹果的入口,苹果需要OpenAI的能力,双方都需要把数据流向解释清楚。
这里出现了一个更深的权力问题。如果ChatGPT可以被接入Siri,其他模型将来是否也可以?苹果会不会成为消费级AI的调度层?同一个用户请求,系统可以判断由端侧模型处理、由Private Cloud Compute处理,还是交给外部模型处理。这个判断一旦发生在操作系统层,苹果就不只是硬件公司,也不只是App平台,它会成为AI能力进入个人生活的闸门。
对独立开发者来说,这种闸门既诱人也危险。诱人之处在于,系统级AI能力可能让小团队用更少工程量获得写作、摘要、图像和语义理解能力。危险之处在于,入口越系统化,平台规则越重要。开发者能用什么能力、在什么场景触发、如何向用户解释权限,最终仍取决于苹果制定的边界。
OpenAI进入了Siri。可是Siri不属于OpenAI。
六、Musk 的警报,和企业管理员的问题
争议很快出现。
2024年6月10日,Elon Musk在X上写道:“If Apple integrates OpenAI at the OS level, then Apple devices will be banned at my companies. That is an unacceptable security violation.”——“如果苹果在操作系统层面集成OpenAI,那么苹果设备将在我的公司被禁用。这是不可接受的安全违规。”他还发帖称,访客必须在门口交出苹果设备,设备会被存放在法拉第笼里。[10]
这些表述带有Musk一贯的高强度传播风格。它不等同于法律结论,也不改变苹果公告中关于用户确认和隐私限制的具体说明。但它击中了Apple Intelligence发布后最敏感的公共疑问:系统层AI到底会把什么数据发给谁?
这不能只看成个人口水战。Musk与OpenAI有长期历史,xAI也在构建自己的模型产品;OpenAI与苹果合作,可能获得更大消费入口;微软既是OpenAI的重要合作伙伴,又在Windows和Copilot+ PCs上推进系统级AI;Google拥有Android和Gemini;苹果拥有iOS、iPadOS、macOS和硬件生态。几家公司围绕模型、系统、云、芯片、数据和入口形成交错关系,任何一次合作都会被竞争者放大成安全、商业和阵营问题。
对企业IT管理员而言,这种争议不是发布会段子。公司设备里有邮件、文档、客户资料、源代码、合同、会议记录和身份凭证。过去,管理者主要关心App安装、移动设备管理、数据加密和网络访问;现在,他们还要理解AI请求的路径:哪些任务在设备端处理,哪些请求进入苹果私有云,哪些内容会在用户确认后发给ChatGPT,登录账号与未登录状态的数据政策有什么不同。
这也是微软Recall风波引起广泛关注的原因。它让企业和个人用户提前看见一个场景:当AI功能默认靠近屏幕、文件和历史活动时,哪怕意图是帮助用户找回信息,也必须面对安全审查。苹果在WWDC上选择反复解释Private Cloud Compute和ChatGPT确认机制,正是因为它不能假设用户会天然接受“更聪明的系统”。
Musk的警报在传播上极端,但背后的问题并不极端。AI进入操作系统后,安全边界不再是“不要把机密复制进聊天框”这么简单。因为用户可能不再复制,系统本身就在旁边。它能总结邮件,理解通知,生成回复,查看屏幕内容,并在未来执行跨App动作。便利性把风险从用户主动输入,推向系统默认可见的上下文。
苹果的回答是分层:设备端处理优先,复杂请求进入Private Cloud Compute,外部ChatGPT调用前询问用户。这个答案比简单地把聊天机器人接进系统更完整,也更符合苹果长期的隐私品牌。但它仍然需要在真实使用中接受检验。发布会能说明设计目标,不能替代安全研究、企业部署、监管审查和用户长期经验。
AI行业在这一刻从炫技进入治理。一个语音演示可以让观众兴奋,一个隐私弹窗却决定企业是否敢开功能。前者让AI像科幻电影,后者让AI像采购审批表。两者都是真实的2024年。
七、战场进入手机
苹果不是第一个冲进生成式AI热潮的公司。它没有发布ChatGPT,没有发布GPT-4,没有发布Sora,也没有像Google那样在I/O上展示覆盖搜索、邮箱、相册、Android和云服务的AI矩阵。到2024年6月,它甚至不是最激进的大模型叙事者。
但它拥有另一种稀缺资源:用户日常生活的承载层。
手机不是普通终端。它知道用户的位置、照片、通知、联系人、支付、身份验证、日程和声音。电脑也不只是生产工具,它承载文档、网页、代码、会议和企业系统。当AI进入这些设备,竞争就不再只是“哪个模型回答更好”,而是“谁有权在什么条件下理解你的生活”。
Apple Intelligence首发范围有限,beta节奏谨慎,初期语言和设备门槛都很明确。不能把2024年6月10日写成“所有iPhone突然拥有AI”的神话。更准确的说法是:苹果把生成式AI正式放进了iPhone、iPad和Mac的系统路线图,并把行业竞争从云端模型推进到端侧芯片、系统权限、隐私架构和生态合作。
这件事的象征意义大于即时覆盖率。
OpenAI在5月展示了实时多模态的尖刀,Google在5月展示了Gemini体系的大网。苹果在6月展示的是入口本身:一套个人智能系统,可以在设备端运行,可以在私有云补位,可以在必要时调用ChatGPT,可以被嵌入用户每天触摸的界面。它不是把AI放在远处让人访问,而是把AI放进用户已经拥有的设备里。
这让下一阶段的矛盾更加清晰。AI越靠近个人,就越有用;AI越有用,就越需要权限;权限越深,信任成本越高。模型能力仍然重要,但入口、芯片、隐私、操作系统和监管开始同样重要。
2024年6月,迟到的苹果改变了战场形状。AI战争不再只是云端模型公司的速度竞赛,也不再只是发布会上谁的演示更像科幻电影。它进入了手机、电脑和操作系统,进入了通知中心、邮件、照片、Siri和写作工具。
当AI进入操作系统,问题不再只是“哪个模型回答得更好”,而是:谁有权读取你的屏幕、邮件、照片、日程和声音。
苹果给出了自己的答案。行业还远没有给出最后判决。
参考文献
- OpenAI,“Hello GPT-4o”,2024.05.13。
- Google,“Google I/O 2024 Keynote”,2024.05.14。
- Apple,“WWDC 2024 Keynote”,2024.06.10。
- Apple,“Introducing Apple Intelligence, the personal intelligence system that puts powerful generative models at the core of iPhone, iPad, and Mac”,2024.06.10。
- Apple,“Q1 2024 Earnings Call”,2024.02.01。
- Apple Security Research,“Private Cloud Compute: A new frontier for AI privacy in the cloud”,2024.06.10。
- Microsoft,“Update on the Recall preview feature for Copilot+ PCs”,2024.06.07。
- Microsoft,“Update on the Recall preview feature for Copilot+ PCs”,2024.06.13。
- OpenAI,“OpenAI and Apple announce partnership”,2024.06.10。
- Elon Musk,X posts on Apple and OpenAI integration,2024.06.10。