第11章|DevDay的糖衣炮弹:人人都能造一个GPT
一、刹车声没有停,发布会已经开始
2023年11月6日,OpenAI在旧金山举行首届DevDay。
舞台上的叙事非常清楚:新模型、更长上下文、更便宜的API、面向开发者的Assistants API、面向普通用户的GPTs,以及未来的GPT Store。Sam Altman走上台时,他的角色已经不再只是那位把ChatGPT推到公众面前的创业公司CEO。他站在一个正在成形的平台入口前,对开发者、企业客户、媒体和合作伙伴说明:OpenAI不只要提供一个聊天机器人,也不只要出售模型调用,它要成为应用被制造、被分发、被企业采购的基础设施。[1][2]
如果只看这一天的灯光和掌声,DevDay像是一场胜利巡游。
但这一年走到11月,舞台外的世界已经给OpenAI和整个生成式AI行业装上了许多刹车片。上一章已经写过,3月31日,意大利个人数据保护机构Garante对OpenAI处理意大利用户数据实施“立即临时限制”;5月16日,美国参议院举行关于AI规则的听证会,Altman在会上说,政府监管干预对缓解日益强大的模型风险“至关重要”;5月到9月,美国编剧工会WGA罢工,AI写作和训练材料进入谈判文本;9月,Authors Guild及多位作家在美国联邦法院起诉OpenAI,诉状指控其未经授权使用受版权保护作品训练模型;10月30日,拜登政府发布关于安全、可靠和值得信赖地开发和使用人工智能的行政命令。[3][4][5][6][7]
因此,DevDay并不是发生在技术真空中。它发生在监管者要求解释数据处理、创作者要求授权和补偿、政府要求安全承诺、企业采购部门询问法律风险之后。外部世界的关键词是审查、责任、同意、补偿和安全;OpenAI带到旧金山的关键词则是平台、工具、速度、价格和分发。
这不是一个简单的矛盾。OpenAI当然可以说,开发者需要更好的工具,企业需要可部署的产品,用户需要更低的门槛,竞争者也不会因为政策讨论而停下脚步。社会也可以反问:能力越强,部署越广,谁来负责错误、滥用、数据来源和市场冲击?
DevDay的张力正在这里。公共世界要求AI公司回答责任问题,OpenAI则把更多制造AI应用的能力交给了更多人。
它没有踩刹车。它把油门做成了API。
二、Altman报数:一个平台的三条腿
DevDay开场,Altman先报出了一组增长数字。
据OpenAI当天发布的官方材料和公开视频,OpenAI称其API已有超过200万开发者使用;超过92%的财富500强公司在使用其产品;ChatGPT每周活跃用户达到1亿。[1][2] 这三个数字放在一起,说明OpenAI已经越过了普通热门应用的边界。
消费端有ChatGPT,开发者端有API,企业端有财富500强客户。一个技术公司如果只占住其中一条线,已经足够写进融资演示稿;OpenAI在不到一年时间里把三条线同时推到了台前。
这也是ChatGPT发布以来最重要的变化之一。2022年11月底,它首先以一个网页聊天框进入公众视野。人们测试它写诗、写邮件、写代码、编故事、胡说八道,又把截图发到社交网络。那时的核心问题是:这个东西到底能做什么?到了2023年11月,OpenAI要回答的问题变了:围绕这个东西,能形成什么生态?
产品争夺用户时间,平台争夺开发者路线图。
在DevDay上,开发者不再只是API账单上的客户,而被放进OpenAI扩张叙事的中心。OpenAI要提供模型、工具调用、检索、代码执行、多模态能力、定制助手、企业保护和应用分发。过去几个月,许多创业公司围绕GPT-4写提示词、搭聊天界面、接向量数据库、做知识库、封装工作流;现在,OpenAI把其中一部分环节做成了官方功能。
行业荒诞感也从这里生出来。创业者熬夜写出的“护城河”,有时会在平台公司的下一次更新日志里变成一个按钮、一个参数,或者一个更短的产品名。没有人需要嘲笑这些创业者,因为他们做的正是平台早期需要生态来探索的事;但平台成熟后,生态里最通用的需求往往会被收回平台内部。云计算、移动操作系统、浏览器、办公软件都经历过类似过程。2023年的AI行业,只是把这一幕加速播放。
Altman在台上的身份也随之变化。他不需要像研究发布那样解释Transformer,不需要像ChatGPT刚爆红时那样证明聊天机器人有趣。他要说服台下的人:OpenAI的模型会更新,价格会下降,接口会稳定,工具会集成,企业会买单,开发者可以在上面继续投入。
这是一家平台公司的语言。它不只说“我们更聪明”,还说“你可以在这里建东西”。
三、GPT-4 Turbo:上下文窗口也是商业模型
DevDay的第一枚重弹是GPT-4 Turbo。
OpenAI宣布,GPT-4 Turbo支持128K上下文窗口,知识截止时间更新到2023年4月;相比当时的GPT-4,输入token价格便宜3倍,输出token价格便宜2倍。OpenAI当天列出的GPT-4 Turbo预览版价格为每1000个输入token 0.01美元、每1000个输出token 0.03美元。[2]
这些数字在普通用户眼里未必有戏剧性。128K上下文不像一段会说话的视频,也不像一个会唱歌的语音助手。但对开发者和企业团队来说,它直接改变应用设计。
上下文窗口是大模型应用的胃容量。胃越大,一次能喂进去的文档、对话历史、代码片段、合同、邮件线程和数据说明就越多。早期应用常常需要把长文档切块、向量化、检索、拼接,再小心塞回提示词里。128K上下文并不会消灭检索增强生成,也不会让所有工程问题自动消失;它改变的是权衡。一些过去必须靠复杂链路勉强完成的任务,现在可以用更直接的方式处理;一些因为上下文太短而体验破碎的产品,可以重新设计。
价格同样关键。大模型创业公司在2023年学会了一门新会计:每一个闪烁的“生成中”光标背后,都有token流出;token流出,就是成本流出。用户看到的是AI在思考,财务表看到的是API调用。模型更便宜,意味着免费试用可以更大胆,复杂任务可以跑更多步骤,产品毛利率可以改善,工程团队也少一些“每次点击都像刷信用卡”的紧张。
OpenAI当天还发布了JSON模式、可复现输出、函数调用改进等能力。[2] 这些功能听起来没有“通用人工智能”那样宏大,却更接近真实商业部署。企业系统喜欢结构化结果,不喜欢模型把“是”“否”“需要人工复核”写成一段抒情散文;软件系统需要可调用的函数,不需要每次靠提示词劝模型守规矩;生产环境需要可预测性,不喜欢同一个输入每天像换了不同实习生。
大模型平台化有一个朴素规律:最能让开发者继续付钱的,往往不是发布会上最像科幻片的功能,而是那些降低不确定性的工程细节。JSON模式不浪漫,但它让模型更像软件接口;函数调用不神秘,但它让模型能和数据库、日历、支付系统、CRM和代码仓库发生关系;更低价格不耀眼,但它决定一个AI应用究竟只是演示视频,还是可持续业务。
GPT-4 Turbo把OpenAI从性能竞赛推进到成本结构竞赛。开发者听到的不是单个模型升级,而是产品可能性被重新报价:更长的上下文让一些任务可做,更低的价格让一些产品可卖,更稳定的输出让一些系统可接入。
糖衣很甜:更长、更便宜、更像接口。炮弹也很清楚:如果一家应用层公司只是把GPT-4包装得更方便,OpenAI正在把“更方便”做成默认配置。
四、Brockman演示:胶水代码被平台吸收
在DevDay上,Greg Brockman承担了关键技术演示。
公开演示和OpenAI文档显示,Assistants API是这次发布的重要产品之一。它允许开发者构建具备指令、模型、工具和持久线程的AI助手,并可接入代码解释器、检索和函数调用等工具。[1][8] 这套能力的意义不在于多了一个API名字,而在于OpenAI把许多开发者过去自己拼装的应用框架,向平台内部收了一步。
2023年上半年,大模型应用开发常见的工程结构大致如此:前端做聊天界面,后端接模型API;如果要处理私有文档,就接向量数据库和检索增强生成;如果要让模型调用外部工具,就写函数调用和权限控制;如果要保存上下文,就设计对话历史和用户状态;如果要执行代码,就接沙箱环境;如果要做企业版,还要处理日志、安全、权限、审计和成本控制。
每一个环节都能长出一家创业公司,也能长出一串“AI基础设施”融资新闻。
Assistants API把其中几件事放进官方抽象:助手有instructions,线程保存对话状态,工具可以被调用,文件可以用于检索,代码解释器可以执行计算。[8] 对开发者而言,这减少了从零搭建记忆、工具、检索和执行链路的负担。对生态而言,这也意味着OpenAI不满足于只出售模型推理,它开始提供应用骨架。
这种变化有平台公司的典型味道。早期生态总是鼓励外部开发者补齐空白;当某些空白被证明足够普遍,平台就会把它们变成内置能力。智能手机系统这样做过,云计算平台这样做过,浏览器和办公套件也这样做过。OpenAI在DevDay上的动作,是大模型版本的同一件事:把“大家都要做”的部分平台化。
这会带来效率,也会带来紧张。效率在于开发者可以更快搭建产品,不必反复发明同一个轮子。紧张在于,轮子一旦成为平台标配,靠卖轮子的公司就要寻找新的价值。行业会议里常见的“生态共赢”四个字,在这种时刻总是既正确又残酷。平台确实提供土壤,也会决定哪些植物只是临时绿化。
对一个小团队来说,Assistants API可能意味着原本需要两个月搭出来的原型,现在几天就能试出第一版。对另一个已经把“企业知识库问答”做成产品的团队来说,同一项发布也可能意味着销售演示要立刻重写:客户会问,既然OpenAI官方已经提供检索、线程和工具,为什么还要买你的中间层?
这不是道德问题,而是平台经济的物理定律。平台越往下封装,应用层越要往上寻找业务场景、客户关系、行业数据、流程集成和可靠交付。仅仅懂提示词,已经不够;仅仅把模型接到聊天框,也越来越不够。
在监管者和企业安全团队眼里,这些能力还有另一层含义。工具调用意味着模型可能触达外部系统;代码执行意味着需要沙箱和权限边界;检索私有文件意味着数据治理;持久线程意味着更长的用户状态保存。发布会语言说,这是更强大的开发体验;合规清单语言说,这是新增风险面。
DevDay把两种语言叠在了一起。工程语言说:少写胶水代码,更快构建助手。治理语言说:更多工具权限,更复杂责任链条。OpenAI没有因此停下,它选择把复杂性封装成API。
五、GPTs:非程序员也被拉进生态
如果说GPT-4 Turbo和Assistants API主要面向开发者,那么GPTs把平台化推到了普通用户面前。
OpenAI在当天发布的“Introducing GPTs”中称,用户现在可以创建ChatGPT的定制版本,将指令、额外知识和任意组合的技能结合起来;创建过程不需要写代码,可以通过对话完成。[9] 这就是本章标题里的糖衣:人人都能造一个GPT。
在DevDay之前,定制一个AI助手通常需要某种技术门槛。即使不训练模型,也要写系统提示词、搭界面、上传文档、处理检索、配置权限、接API。GPTs把这件事包装进ChatGPT内部:用户用自然语言描述需求,上传知识文件,选择能力,生成一个特定用途的聊天助手。它可以是写作教练、旅行规划器、客服助手、代码帮手、课程助教,也可以是公司内部政策问答机器人。
这里改变的不只是技术门槛,还有心理门槛。过去,普通用户“使用AI”;现在,OpenAI告诉他们可以“制作AI”。这句话并不意味着每个人都在训练基础模型,也不意味着每个GPT都有独立智能。多数GPT更像指令、知识和工具的组合。但对大众传播来说,“不用写代码也能造一个ChatGPT”已经足够有力。它把平台供给者的边界向外推了一圈,让非程序员也进入生态。
OpenAI还宣布计划推出GPT Store,让用户创建的GPT可以被发现和分发。[9] 只要有商店,就会有排名、审核、变现、规则和争议。苹果App Store曾经让移动开发者获得巨大机会,也让平台审核、抽成和分发权成为长期争议;OpenAI的GPT Store在DevDay上还只是计划,但它已经把大模型生态带进熟悉的平台政治。
对用户来说,GPTs是糖衣。它降低了创造门槛,让“我想要一个专门帮我做某事的AI”变成可操作流程。对许多应用层创业公司来说,它是炮弹。不是因为GPTs会消灭所有创业公司——这种判断过于夸张,也缺乏证据——而是因为它会挤压一类轻量应用空间:那些主要依赖提示词模板、少量知识库和简单工具调用的产品,必须解释自己为什么不能被一个自定义GPT替代。
平台化最温和、也最强硬的方式,往往不是宣布“我要进入你的市场”,而是把过去需要购买的软件功能变成创建界面里的一个选项。糖衣在于用户获得便利;炮弹在于商业边界被重新划线。
GPTs还把责任问题推向更分散的场景。谁可以上传什么知识?用户创建的GPT如果给出错误建议,责任如何分配?如果某个GPT模仿特定作者、教师、医生或品牌,平台如何审核?如果商店排名奖励使用量,创建者会不会优化标题、承诺和行为来追逐流量?如果企业内部GPT接入敏感文件,访问控制和日志审计如何落地?
这些问题在DevDay当天没有完整答案。平台一旦开放,问题也不会按产品路线图排队。
OpenAI在这一天讲的是“赋能”。公共世界追问的是“约束”。两者并不必然冲突,但它们必然相遇。
六、版权盾牌:法律风险也被产品化
DevDay还有一个容易被模型更新掩盖的发布:Copyright Shield。
OpenAI在官方博客中称,将为ChatGPT Enterprise和API客户提供版权保护。如果客户因使用OpenAI产品而面临版权侵权法律索赔,OpenAI将介入并承担相关费用;这一承诺适用于ChatGPT Enterprise和开发者平台的普遍可用功能。[2] 这项承诺的出现,说明版权问题已经不只是媒体问答,而是企业采购和平台扩张中的真实障碍。
几个月前,Authors Guild及John Grisham、Jodi Picoult、George R.R. Martin等多位作家在纽约南区联邦法院起诉OpenAI。诉状指控OpenAI未经许可复制原告作品,用于训练大语言模型,并称这些模型可能生成对原作品构成威胁的衍生文本。[6] 这些指控仍需经过司法程序检验;但诉讼本身已经把大模型从发布会舞台拖进版权法的细则里:训练数据、复制行为、合理使用、市场替代和授权机制,都不再只是理论问题。
与此同时,WGA罢工让AI写作进入劳动合同。WGA公开材料中提出的AI相关立场包括:AI不能撰写或改写文学材料,不能被用作源材料,受Minimum Basic Agreement覆盖的材料不能被用于训练AI。[5] 这里的MBA是Minimum Basic Agreement,不是工商管理硕士。2023年的行业荒诞感之一,就是好莱坞合同缩写突然需要给AI行业补课。
在这样的背景下,OpenAI推出Copyright Shield,有两层含义。第一,它向企业客户释放信号:即使版权诉讼还在进行,企业也可以更有信心采购OpenAI服务。第二,它把法律风险部分平台化:客户不必单独面对所有索赔,平台愿意承担一部分防御责任。
AI行业由此出现一种新产品形态——法律风险也被打包进服务承诺。
这当然不能解决所有版权争议。Copyright Shield主要面向客户使用产品时产生的索赔,并不等于OpenAI承认训练数据侵权,也不等于作家、艺术家和媒体机构的授权诉求已经被满足。它更像平台扩张过程中的安全带:不能保证车不发生事故,但能让乘客相信,出了事不必独自面对方向盘。
过去采购软件问的是功能、稳定性、价格和安全认证;2023年的AI采购还要问,如果模型输出引发版权索赔,律师费谁出。技术发布会由此多了一种新栏目:不只发布模型能力,也发布赔付承诺。
DevDay没有让版权争议消失。相反,它证明争议已经足够重要,必须成为平台销售的一部分。
七、微软、企业客户与平台骨架
OpenAI的舞台背后,还有一副更硬的骨架:微软、云计算资源、企业客户和资本市场预期。
2023年1月,微软宣布与OpenAI进入第三阶段长期合作,称将进行一项“多年、数十亿美元”的投资,并继续作为OpenAI的独家云服务提供商,为OpenAI的工作负载提供Azure支持。[10] 对大模型公司来说,云不是普通供应商。训练和推理都需要巨量算力,GPU、网络、存储和数据中心调度决定模型能否持续迭代。微软给OpenAI提供的不只是钱,还有工业级基础设施和企业销售通道。
8月28日,OpenAI发布ChatGPT Enterprise,称其提供企业级安全和隐私、无限高速GPT-4访问、更长上下文窗口、高级数据分析能力和管理控制台;官方材料还列出Block、Canva、Carlyle、The Estée Lauder Companies、PwC、Zapier等早期使用者。[11] 这说明OpenAI并不满足于消费者订阅和开发者API。它要进入企业内部,成为知识工作、数据分析、客服、写作、编程和运营流程的一部分。
DevDay正好把这些线接起来。消费者有ChatGPT,开发者有API和Assistants API,非技术用户有GPTs,企业有ChatGPT Enterprise,微软提供云和渠道,未来还有GPT Store。平台帝国的轮廓不是一天形成的,但11月6日这一天,它被摆在同一块屏幕上。
资本市场也在给这个轮廓定价。路透社2023年9月援引《华尔街日报》报道称,OpenAI与投资者洽谈出售现有股份,估值可能达到800亿至900亿美元。[12] 这样的数字不是事实真理,而是市场在某一时点对增长、稀缺性、风险和想象力的混合报价。但它会反过来加强平台化压力:估值越高,公司越需要证明自己不只是一个热门应用,而是能承载巨大生态和收入规模的基础设施。
这也是DevDay为何关键。一个聊天机器人可以流行,一个API可以赚钱,但一个数百亿美元级估值故事需要更大的叙事。OpenAI必须让外界相信,它处在AI应用的中心位置:开发者围绕它构建,企业围绕它部署,用户围绕它创建,微软围绕它投资,政策制定者围绕它提问。
可平台越大,治理问题越难保持实验室规模。早期研究组织可以用论文、模型卡和安全评估解释自己;平台公司要面对用户投诉、版权诉讼、企业合规、开发者生态、公平竞争、数据保护、国家安全和劳动市场冲击。OpenAI在2023年的特殊之处正在于此:它既要讲使命和安全,也要讲API价格、企业合同和应用商店。
DevDay没有直接讨论公司治理结构的张力。它是一场产品发布会,不是董事会说明会。公开资料能确认的是,OpenAI在这一天把平台化路线推到最亮处。至于这种速度如何与使命、安全治理和外部问责长期共存,不是一段演示能回答的问题。
平台骨架越完整,问题也越完整。
八、盛宴前夜
DevDay的意义,不在于某一个功能,而在于它把OpenAI从“领先的大模型公司”推向“AI平台公司”。
GPT-4 Turbo回答性能、上下文和成本问题;Assistants API回答开发框架问题;GPTs回答低门槛创作问题;GPT Store计划回答分发问题;Copyright Shield回答企业法律风险问题;ChatGPT Enterprise回答组织采购问题;微软合作回答算力和渠道问题。几乎每一个阻碍大模型扩张的环节,OpenAI都给出了一个产品化答案。
这正是糖衣炮弹的完整形态。对开发者,OpenAI说:更便宜、更长、更强、更易用。对普通用户,它说:不用写代码,你也可以造一个GPT。对企业,它说:安全、隐私、管理和版权保护正在补齐。对生态,它没有直接说出口的部分是:越来越多中间层能力将被平台吸收,越来越多应用需要证明自己不是一个提示词模板。
舞台外,2023年的公共刹车并没有消失。意大利的数据保护行动证明,监管者可以让产品暂停;参议院听证会证明,AI公司必须面对制度询问;WGA和SAG-AFTRA证明,劳动者不会把AI冲击当作抽象未来;Authors Guild诉讼证明,训练数据和版权授权将进入长期司法战;白宫行政命令证明,国家机器已经开始为AI设定边界。
这不是恐慌,也不是道德审判。它更像一套社会系统的自然反应:当一种技术开始改变知识生产、劳动分配、企业流程和公共安全时,其他制度会要求它说明来源、权限、责任和补偿。AI公司喜欢说规模法则,社会也有自己的规模法则:影响越大,问责越多。
DevDay把这种矛盾推到最清楚的位置。OpenAI没有在监管、罢工和诉讼升温时放慢,反而把自己推向更大的平台舞台。它的逻辑并不难理解:技术窗口期短,竞争者在追赶,开发者需要工具,企业正在采购,资本期待增长。对于一家处在浪潮中心的公司,停止扩张本身也是一种风险。
但外部世界提出的不是“永远停止”,而是“回答问题”。数据从哪里来?用户如何同意?创作者如何获得补偿?劳动合同如何保护人的署名、表演和作品?模型错误造成损害谁负责?平台内置能力挤压生态时,边界如何划定?当模型可以调用工具、执行代码、访问文件,安全测试如何跟上?当普通用户都能造GPT,审核和分发规则如何制定?
这些问题不会因为发布会结束而退场。它们会跟着每一个API调用、每一个企业部署、每一个自定义GPT、每一个训练数据诉讼继续向前。
2023年11月6日,OpenAI在旧金山给出了一个令人兴奋的答案:人人都能造一个GPT。这个答案漂亮,也危险。它把创造力包装成聊天界面,把应用开发压缩成自然语言,把平台扩张做成开发者福利。它像糖衣,因为它降低门槛;它像炮弹,因为它重划市场。
舞台上的OpenAI正在加速。舞台外的社会正在要求刹车、审查和补偿。两股力量没有在DevDay达成和解,只是在同一天进入同一个时代。
参考文献
- OpenAI,OpenAI DevDay Keynote official video / transcript,2023-11-06。
- OpenAI,New models and developer products announced at DevDay,2023-11-06。
- Italian Garante,Artificial intelligence: stop to ChatGPT by the Italian SA,2023-03-31。
- U.S. Senate Judiciary Subcommittee on Privacy, Technology, and the Law,Oversight of A.I.: Rules for Artificial Intelligence,2023-05-16。
- Writers Guild of America,2023 MBA strike and AI-related proposals / statements,2023。
- Authors Guild et al. v. OpenAI Inc. et al.,Complaint,U.S. District Court, Southern District of New York,2023-09。
- The White House,Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,2023-10-30。
- OpenAI Documentation,Assistants API documentation,2023。
- OpenAI,Introducing GPTs,2023-11-06。
- Microsoft,Microsoft and OpenAI extend partnership,2023-01-23。
- OpenAI,Introducing ChatGPT Enterprise,2023-08-28。
- Reuters,OpenAI seeks new valuation of up to $90 billion in sale of existing shares - WSJ,2023-09-26。