第29章|智能的物质世界:芯片、能源、数据中心与国界
一、每一个神奇答案,都有电费单
用户在聊天框里输入一句话,屏幕上出现一段摘要、一张图片、一段代码,或者一个能够继续调用工具的 Agent。界面轻得像空气:没有烟囱,没有卡车,没有厂房,甚至没有保存按钮。可在这句回答生成之前,另一条链路已经启动:模型请求被路由到某个云区域,排进推理队列,落在 GPU 或专用加速器上,经过网络、存储、冷却系统和电力系统,最后才回到浏览器。
所谓“云”,在这一刻露出了它的旧名字:别人的计算机。只是到 2025 年,这些计算机不再只是互联网服务器,而越来越像工业设施。
这不是修辞。NVIDIA 在 2025 年 8 月发布的 2026 财年第二季度财报显示,截至 2025 年 7 月 27 日的季度,公司收入为 467 亿美元,其中数据中心收入为 411 亿美元。[1] 对一家曾以游戏显卡和图形工作站闻名的公司来说,这组数字说明了一个行业重心的位移:AI 不再只是模型实验室、论文榜单和应用商店的故事,它已经把财务报表、供应链、出口许可、电网负荷和地方审批拖进同一张桌子。
上一章写到程序员的新同事终于上岗。Claude Code、Codex、Copilot coding agent、Gemini CLI 这些工具让模型进入真实仓库,读取文件,运行测试,提交补丁。它们看起来是软件工业的自然延伸:更好的 IDE、更聪明的终端、更顺手的自动化。但它们也把推理需求从“偶尔问一次”改造成“持续循环”。一个 Agent 修复 bug,可能不是一次回答,而是规划、检索、改文件、跑测试、读错误、再改、再跑。每一步都像轻轻敲了一下键盘;合在一起,就是一串 GPU 时间、日志存储、网络传输和云账单。
因此,本章要把镜头向下移。
AI 不是一朵云形的奇迹。它是 Blackwell、H20、Rubin,是 HBM、先进封装和高速互连;它是 Meta、Microsoft、Google、Amazon 在财报里写下的资本开支;它是 IEA 和 LBNL 报告里的太瓦时;它是北弗吉尼亚地方听证会里的输电线路、噪声、土地和税收;它还是美国商务部文件里的出口管制编号和许可要求。
这并不意味着智能的故事变得不浪漫。恰恰相反,它变得更像工业史:蒸汽机要煤,铁路要钢,互联网要海底光缆,生成式 AI 要芯片、电力、土地、水、资本和国界。行业的荒诞感也从这里产生:最会说“无服务器”的公司开始排队等变压器,最抽象的模型公司开始关心机柜密度,最轻盈的应用演示最后落在一份电力接入申请上。
兴奋仍然在场。怀疑也必须在场。因为当智能变成基础设施,问题就不再只是“模型会不会更聪明”,而是“谁有能力运行它”。
二、NVIDIA 的三张脸:Blackwell、H20 与 Rubin
2025 年的 NVIDIA 有三张同时出现的脸。
第一张脸是 Blackwell。2024 年 GTC 上,NVIDIA 已经把 Blackwell 包装成新一代 AI 平台:B200 GPU、GB200 Grace Blackwell Superchip、GB200 NVL72 机柜级系统,以及围绕 NVLink、网络、软件库和 CUDA 生态形成的整套基础设施。[4] 到 2025 年中,这套平台不再只是舞台上的参数表,而是公司收入增长的核心。
NVIDIA 2026 财年第二季度财报给出的数字非常直接:季度收入 467 亿美元,数据中心收入 411 亿美元。[1] 这意味着 NVIDIA 的“数据中心”业务已经不是公司的一条产品线,而是公司本身的财务重力。它卖出的不只是芯片,而是 AI 工厂的关键零件。云厂商、模型公司、企业客户和政府项目购买 Blackwell,不是为了收藏一块更快的 GPU,而是为了把它接入机柜、网络、存储、调度系统、冷却系统和电力合同,变成可连续生产智能的机器。
第二张脸是 H20。它提醒人们,同一家公司、同一类产品,在舞台上是性能叙事,在华盛顿文件里是管制对象。
2025 年 4 月,NVIDIA 在提交给美国证券交易委员会的 8-K 文件中披露,美国政府在 4 月 9 日通知公司,向中国及相关目的地出口 H20 集成电路需要许可证;该许可证要求被表述为无限期适用。NVIDIA 同时披露,公司预计将在 2026 财年第一季度就 H20 库存、采购承诺和相关储备计提最高约 55 亿美元费用。[2] 这里没有神秘感,只有现代产业政策最冷静的语法:一个为特定市场设计的芯片,突然被写进许可制度;一条销售路径,立即变成会计项目。
H20 是 AI 基础设施时代的典型物件。它不是最强的芯片,却因为出口控制而成为全球 AI 版图的温度计。一个型号的带宽、互连和目的地,不只是工程问题,也是国家安全问题、商业预测问题和客户可得性问题。对中国客户来说,它关系到可用算力;对 NVIDIA 来说,它关系到收入和库存;对美国政策制定者来说,它关系到先进计算能力的扩散边界。
第三张脸是 Rubin。到 2026 年 GTC,NVIDIA 继续把“AI factories”作为叙事中心,并把 Blackwell 之后的平台路线、网络、系统和软件生态放进同一幅基础设施图景。[3] Rubin 在这里不只是下一代 GPU 名字,而是产业预期的锚点。云厂商签长期采购,数据中心规划电力,内存和封装供应链安排产能,资本市场计算未来需求,都需要一个路线图。芯片公司发布未来架构,实际上是在给整个基础设施链条发施工图。
这就是 NVIDIA 在 2025—2026 年的特殊位置。它既是供应商,也是瓶颈;既是创新公司的代表,也是重资产周期的发动机;既把“智能”包装成未来生产力,又让所有客户面对一个老问题:如果下一代模型需要更多算力,钱、电、地和许可从哪里来?
行业里常说“需求强劲”。这句话在软件公司财报里往往轻飘飘,在 NVIDIA 财报里却很重。因为这里的需求不是多下载一个 App,而是多建一座数据中心,多签一份电力协议,多采购一批机柜,多等待一轮供应链交付。每一个“强劲需求”,最终都会落在现实世界的某个地方。
三、数据中心不是背景板,是主角
在 AI 产品发布会上,数据中心经常以背景板出现:一排蓝色机柜,一束冷光,一句“由先进基础设施驱动”。但到 2025 年,背景板站到了前台。
国际能源署在 2025 年发布的《Energy and AI》中估计,全球数据中心用电量在 2024 年约为 415 太瓦时,约占全球用电量 1.5%;在其基准情景中,到 2030 年这一数字将增至约 945 太瓦时,超过翻番。[5] 这不是“AI 单独用电”的数字,而是数据中心整体负荷,其中 AI 是增长的重要驱动。这个区别必须说清楚。把所有数据中心用电都算成 AI,是夸大;忽视 AI 推动新建算力集群,也是逃避。
美国的情况有更细的底稿。劳伦斯伯克利国家实验室在《2024 United States Data Center Energy Usage Report》中估计,美国数据中心 2023 年用电量约为 176 太瓦时,占美国总用电量约 4.4%;报告在不同假设下预测,到 2028 年美国数据中心用电可能达到 325 至 580 太瓦时,占美国总用电量约 6.7% 至 12%。[6] 这个区间很宽,原因也重要:未来用电取决于服务器出货、芯片效率、利用率、冷却方式、应用需求、模型架构和电价。基础设施史最怕把区间写成命运。这里更合理的读法是:方向清楚,幅度不确定,地方冲击会高度集中。
电网公司比模型榜单更早感受到这种集中。PJM 是覆盖美国东部多州的区域输电组织,它在 2025 年长期负荷预测中把数据中心等大型负荷列为需求增长的重要因素,尤其在部分服务区域,数据中心接入请求改变了传统负荷增长曲线。[7] 这类报告不会讨论某个模型是否通过数学竞赛,也不会评价 Agent 是否聪明;它只关心峰值负荷、输电约束、发电容量、并网周期和可靠性。
这就是基础设施视角的冷酷之处。模型公司说“推理成本下降”,电网公司问“峰值什么时候来”;云厂商说“AI capacity”,地方政府问“变电站建在哪里”;开发者说“长上下文真香”,财务部门问“这个月 API 账单为什么像水管爆了”。
资本开支把这件事进一步放大。Meta 在 2025 年第二季度财报中把全年资本开支预期区间提高到 660 亿至 720 亿美元,并说明其中包括对 AI 基础设施的投入。[9] Microsoft 在 2025 财年第四季度财报和电话会材料中同样把云和 AI 需求与资本开支增长联系起来。[10] 这些数字不是抽象的“投资未来”。它们会变成服务器订单、土地购买、施工许可、输电线路、冷却系统和折旧表。
数据中心于是成了 AI 竞争的物质重力。它不发论文,不上排行榜,却决定模型能否训练、服务能否稳定、价格能否下降、应用能否实时响应。过去十年,互联网公司擅长把基础设施隐藏起来,让用户只看见软件。生成式 AI 把隐藏成本重新放大:当每一次回答都需要更多计算,基础设施就不可能永远待在幕后。
四、地方居民看到的不是模型,而是围栏、线路和噪声
AI 行业谈数据中心,喜欢用“容量”“集群”“AI 工厂”。地方居民看到的词更朴素:土地、围栏、输电线路、冷却塔、备用柴油发电机、施工车流、噪声、税收。
北弗吉尼亚是最典型的地区之一。弗吉尼亚州联合立法审计与审查委员会在 2024 年发布的《Data Centers in Virginia》报告中,把数据中心对州内经济、地方税收、电力需求、土地使用、噪声和环境资源的影响放在同一份官方评估里。[8] 这份报告的价值不在于给出一句简单结论,而在于显示“数据中心影响”本来就不是单变量问题。
地方政府可能欢迎数据中心,因为它们能带来巨额设备税和地产税,而就业密度相对低,对学校、交通等公共服务的日常压力未必像住宅开发那样大。财政账本上,数据中心是一种诱人的对象:占地、用电、交税,但不带来大量新学生。可是居民听证会上,问题往往从另一边冒出来:输电线路穿过哪里?变电站离社区多远?备用发电机测试时的噪声如何控制?冷却用水来自哪里?高密度机房改变了原本的乡村景观,谁来承担这种变化?
这里必须谨慎。不是每个数据中心都大量耗水,也不是每个项目都会造成严重噪声;不同冷却技术、气候条件、供水来源、地方条例和设施设计,会带来不同结果。JLARC 报告也没有把所有影响写成全州统一灾难,而是强调影响常常是地方性的、项目性的,需要通过地方规划、监管和信息披露来处理。[8]
这正是本章要保留的复杂性。AI 基础设施不是反派,也不是免费午餐。它给地方带来税收、建设投资和数字经济地位,也带来电力扩容、土地竞争、景观改变和环境治理压力。对于住在数据中心附近的人来说,“通用人工智能”不是哲学名词,而可能是一条新输电线路的走向、一场晚上听见的低频噪声、一份地方政府税收说明,或者一次规划委员会会议。
行业荒诞感也在这里变得清晰:一个创业公司在旧金山演示“十秒生成营销视频”,北弗吉尼亚的居民可能在讨论为这些十秒视频供电的变电站;一个模型公司宣布“Agent 能连续工作一小时”,某个县的规划人员要审查支持这种连续推理的数据中心备用电源。软件越像魔法,地方治理越像土木工程。
五、美国政策把基础设施写成国家战略
2025 年 7 月,白宫发布《America’s AI Action Plan》。这份文件的结构本身就说明了美国政府如何理解 AI:它不仅谈模型、应用和安全,也把基础设施列为核心议题。[11]
行动计划中有关基础设施的部分,围绕数据中心、半导体制造、能源基础设施、许可审批和电网能力展开。它传递的政策姿态很明确:美国不只是要拥有领先模型,还要拥有运行这些模型的土地、电力、芯片、云和工业能力。换句话说,AI 竞争被正式写成基础设施竞争。
这与出口政策形成了另一条线。2025 年 5 月,美国商务部工业与安全局宣布撤销拜登政府末期发布的 AI Diffusion Rule,同时表示将强化芯片相关出口管制执法。[12] 再往前看,2025 年 1 月的 AI Diffusion Rule 曾试图用目的地、授权用户、算力规模和安全条件来管理先进 AI 芯片及相关能力的全球扩散。[13] 新政府撤销旧规则,并不等于“边界消失”,而是说明边界的画法发生变化。美国政策争论的焦点,不是要不要把先进 AI 基础设施纳入国家安全框架,而是如何纳入、对谁开放、对谁限制、由哪个部门执行。
H20 的例子把政策与商业直接连起来。NVIDIA 8-K 文件里那 55 亿美元潜在费用,不是论文争论,也不是社交媒体口水,而是出口许可落到资产负债表上的声音。[2] 同一块芯片,客户看到性能,投资者看到收入,监管者看到扩散风险,竞争国家看到可得性。国界不是把 AI 软件完全挡住的墙,却会变成算力流动中的阀门。
《America’s AI Action Plan》还有一个值得注意的方向:它不仅强调限制对手,也强调向盟友和伙伴输出美国 AI 技术栈。[11] 这意味着美国把 AI 基础设施看作一种可出口的组合产品:芯片、云、模型、软件、标准、安全实践和融资安排。过去,互联网全球化常常表现为平台服务跨境扩张;AI 基础设施全球化更像电站、通信网和金融清算系统的混合体,既要卖技术,也要卖信任,还要管理风险。
这里的兴奋显而易见。一个国家若能同时拥有先进芯片、强大云厂商、充足资本、能源供给和政策协调能力,就可能在 AI 时代获得巨大优势。怀疑也同样明显。加速许可可能与地方环境评估发生张力;扩大数据中心可能与电价、排放和水资源目标冲突;出口技术栈可能增加盟友依赖,也可能引发新的政策摩擦。
基础设施一旦进入国家战略,就不可能只有硅谷叙事。它会进入国会听证、州政府招商、联邦许可、环保审查、贸易谈判和军事安全文件。AI 的“物质世界”从来不只是技术问题。
六、小团队的账单:价格、配额、延迟和区域
基础设施约束不只影响国家和巨头,也会落到小团队身上。只是它落下来的方式不像输电线路那样显眼,而是出现在控制台里:价格表、速率限制、配额申请、区域可用性和延迟。
一个两三人的产品团队如果在 2025 年开发 Agent 应用,通常不会自己买 GPU、建机房、雇运维。他们调用 API,接入云模型,按 token 付费。OpenAI 等模型供应商公开列出不同模型的输入、输出、缓存和批处理价格;价格表把“智能”拆成每百万 token 的数字。[15] Microsoft Azure OpenAI 的公开文档则把配额、速率限制和部署区域写成服务使用条件:不同订阅、区域和模型部署可能对应不同配额,客户需要申请提升限制。[14]
这些文档看起来枯燥,却是小团队的基础设施体验。创始人不一定见过一台 Blackwell 服务器,但会知道某个模型在某个区域还不能用;工程师不一定懂变电站扩容,但会知道每分钟 token 数限制让演示卡住;产品经理不一定研究出口管制,但会知道客户要求数据留在特定地区时,模型选择突然变少。延迟也是同一件事的用户侧表现:交互式 Agent 若需要多轮调用工具,区域距离、网络路径和后端排队都会影响体验。
这也是 AI 应用经济学与传统 SaaS 的差别。传统软件的边际成本可以被压得很低,服务器成本通常不会跟每个用户动作线性显现。生成式 AI 应用则更像每次点击都点亮一小段生产线。一次摘要很便宜,百万次摘要就是预算;一次代码修复很有价值,Agent 循环跑十轮测试就要进入成本模型;一次长上下文问答很惊艳,用户把整个知识库都塞进去时,账单也会变得诚实。
价格下降并不自动消除压力。模型更便宜,团队就会把它用到更多地方:客服、销售、代码、数据分析、文档、财务、法务、搜索、个人助理。Agent 能力越强,调用链越长。基础设施成本从“能不能用”变成“怎么设计才用得起”。于是,小团队开始学习一种奇特的新产品纪律:提示词要优化,缓存要设计,检索要裁剪,上下文要压缩,模型要分层,昂贵模型只处理难题,便宜模型承担常规任务。
这不是技术悲观主义。它是智能普及的工程现实。AI 让小团队拥有过去大公司才有的能力,但也让小团队更早接触到大公司才熟悉的资源约束。过去,创业者担心服务器宕机;现在,他们还要担心推理成本、区域合规、速率限制和模型供应商的产品调整。魔法可以调用,但魔法按量计费。
七、边界里的智能,电表上的未来
到 2026 年春,AI 行业已经形成一种双层现实。
第一层,是用户看到的轻盈世界。模型嵌入浏览器、IDE、终端、办公软件和企业系统。Agent 能读文档、改代码、生成报告、调用工具。开源模型和商业 API 让开发者几小时内搭出过去需要团队数月完成的功能。智能像水一样流进软件。
第二层,是基础设施看到的沉重世界。GPU 要排产,HBM 要供应,先进封装要扩产,数据中心要拿地,电网要接入,冷却系统要设计,资本开支要融资,出口许可要审批,地方居民要参加听证。智能不是凭空流动,而是在一张由芯片、电力、土地、水、资本和法律构成的地图上流动。
这两层现实共同定义了 AI 时代的新秩序。
NVIDIA 的财报说明,先进加速器已经成为全球资本开支的中心对象。H20 的出口许可说明,芯片型号可以被国界重新定义。IEA 和 LBNL 的报告说明,数据中心电力需求已经进入能源预测,而不能只留在科技新闻。PJM 和弗吉尼亚地方评估说明,AI 的负荷并不平均落在地图上,而会集中改变一些社区、电网节点和地方财政。美国 AI 行动计划说明,政府已经把算力、能源和许可审批纳入国家竞争框架。小团队的价格表和配额限制则说明,基础设施最终会穿过云服务界面,落到每个产品决策里。
兴奋与怀疑必须并存。兴奋在于,芯片效率、模型架构、系统工程和市场竞争会持续降低单位智能成本;怀疑在于,降低单位成本可能扩大总需求,新的应用会吞掉效率收益。兴奋在于,基础设施建设会让更多人获得模型能力;怀疑在于,建设本身需要土地、电力、水和地方同意。兴奋在于,国家战略可以加速投入;怀疑在于,国家战略也会带来边界、管制和新的依赖关系。
AI 不是脱离物质世界的意识实验。它更像一场把软件、半导体、电力和地缘政治重新焊接在一起的工业革命。未来几年,关于智能的许多争论,表面上会继续围绕模型能力、Agent 安全、开源闭源和商业模式展开;底层却会反复回到几个老问题:谁有芯片?谁有电?谁有地?谁出钱?谁批准?谁承担邻避成本?谁能在国界变化时保持供应?
每一个神奇答案,都有电费单。每一个电费单背后,都有供应链。每一条供应链,都会穿过某个国家、某个社区和某个预算表。
八、补丁说明
参考文献
- NVIDIA Newsroom,NVIDIA Announces Financial Results for Second Quarter Fiscal 2026,2025-08-27。
- NVIDIA,Current Report on Form 8-K,2025-04-15。
- NVIDIA Blog,GTC 2026 News,2026-03。
- NVIDIA Newsroom,NVIDIA Blackwell Platform Arrives to Power a New Era of Computing,2024-03-18。
- International Energy Agency,Energy and AI,2025-04。
- Lawrence Berkeley National Laboratory,2024 United States Data Center Energy Usage Report,2024-12。
- PJM Interconnection,2025 Long-Term Load Forecast Report,2025。
- Virginia Joint Legislative Audit and Review Commission,Data Centers in Virginia,2024-12-09。
- Meta Platforms,Meta Reports Second Quarter 2025 Results,2025-07-30。
- Microsoft,Earnings Release FY25 Q4,2025-07-30。
- The White House,America’s AI Action Plan,2025-07-23。
- U.S. Department of Commerce, Bureau of Industry and Security,BIS Rescinds Biden Administration AI Diffusion Rule, Strengthens Chip-Related Export Control Enforcement,2025-05-13。
- Federal Register,Framework for Artificial Intelligence Diffusion,2025-01。
- Microsoft Learn,Azure OpenAI Service quotas and limits,2026-04(访问)。
- OpenAI,API Pricing,2026-04(访问)。