第1章|11月30日的按钮:ChatGPT把实验室推上首页
一、没有舞台的发布
2022年11月30日,OpenAI官网出现一篇标题为“Introducing ChatGPT”的博客。没有消费电子发布会,没有新手机,没有机器人从幕布后走出,也没有一块被反复擦亮的硬件。公众能看到的,是一篇公司博客,一个网页入口,和一个可以输入文字的空白框。
博客开头的句子后来被反复引用:“We’ve trained a model called ChatGPT which interacts in a conversational way.”——OpenAI说,他们训练了一个名为ChatGPT的模型,它能以对话方式互动。[1]
这句话朴素得近乎反高潮。过去几十年里,人工智能常以更宏大的形象进入公众想象:棋盘上的胜利、自动驾驶汽车、能识别图像的神经网络、工业机器人、科幻电影里的通用智能。但在2022年11月30日这一天,它抵达大众日常生活的方式,是浏览器里一个可以打字的页面。
OpenAI把ChatGPT称为“research preview”,研究预览版。官方博客还写道:“During the research preview, usage of ChatGPT is free.”研究预览期间,ChatGPT免费使用。[1] 这原本是一个面向反馈的技术窗口,而不是传统意义上经过定价、渠道、广告和售后体系包装的消费级正式商品。可是公众并不总按研发团队的分类使用新工具。一个网页只要能打开,一个输入框只要能回应,就会立刻被当成工具、玩具、咨询台、写作助手、代码同伴和半夜不下班的百科全书。
OpenAI在同一篇博客里解释“对话格式”的意义:“The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.”对话格式让ChatGPT可以回答追问、承认错误、质疑不正确的前提,并拒绝不适当的请求。[1]
这句话几乎是早期ChatGPT体验的说明书。它不像搜索引擎那样返回一页链接,也不像传统聊天机器人那样把用户困在菜单树里。用户写下一句自然语言,它回一段自然语言。用户要求它把概念讲得更简单,它可以继续讲。用户指出“你刚才错了”,它有时会道歉并修正。用户提出危险或不当请求,它有时会拒绝。
这种“有时”很重要。它既是惊奇的来源,也是裂缝的开端。
从公司叙事看,OpenAI发布的是一个模型预览。从公众体验看,机器第一次像坐到了人面前。一个人不需要知道Transformer架构,不需要知道强化学习,不需要知道GPU集群,也不需要知道“alignment”这个词在硅谷的特殊重量。他只需要打开网页,输入一句话,然后等待。几秒钟后,屏幕上出现一段语法通顺、语气礼貌、结构完整的回答。
这也是行业荒诞感的起点:许多软件长期要求人去适应机器——记快捷键,找菜单,读文档,忍受报错;而这一次,机器忽然用人的日常语言来适应人。它不是更大的屏幕,不是更快的芯片,也不是更薄的设备。它只是一个输入框,却把“人工智能”这个长期停留在实验室论文、投资人PPT和科幻叙事里的词,推到了普通用户的浏览器首页。
按钮被按下时,没有金属声,没有倒计时,没有烟火。只有一篇博客上线,一个网页开放,一个输入框等待第一批陌生人提问。
二、它不是搜索框,却像什么都能答
ChatGPT最初的震动,并不来自它完成了某一项单一任务。真正让人停下来的,是它似乎不承认任务边界。
用户可以让它写邮件。它会给出称呼、正文、结尾和语气调整。用户可以让它解释量子计算、通货膨胀、递归函数或莎士比亚十四行诗。它会把概念拆成段落,添加例子,降低难度。用户可以让它改代码,它会指出可能的错误,给出替代写法。用户可以让它写故事、起标题、做提纲、生成段子、模拟面试、列旅行计划。它并不总是正确,但它常常愿意开始。
这与互联网此前熟悉的工具逻辑不同。搜索框要求用户把问题拆成关键词,再从结果列表中筛选。办公软件要求用户掌握按钮、模板和格式。编程工具要求用户理解语法和环境。ChatGPT把这些都压缩成一种古老而直觉的交互方式:问答。
对办公室里的个人来说,它像一位随叫随到的草稿员,可以把一句“帮我写得客气点”变成一封邮件。对学生来说,它像一台会解释概念的机器,但它的回答能不能被当作知识,马上会变成新的问题。对程序员来说,它像一个不知疲倦的结对伙伴,可以补全函数、解释报错、给出示例;但一个看似合理的代码片段,也可能把错误藏进项目。对创作者来说,它可以把空白页变成第一版文本;但第一版文本是否值得信任、是否有来源、是否只是平均化表达,又需要人重新判断。
它不是神谕,却采用了神谕最有迷惑性的外观——完整句子。它不是数据库,却常常以数据库般确定的口吻回答。它不是人,却学会了许多人类客服、导师和写作者的礼貌语气。几十年来,用户在“请阅读帮助文档”与“请联系管理员”之间来回奔走;到了这一天,帮助文档突然开始主动写帮助文档。
OpenAI并没有在发布博客中把这种能力包装成完美。相反,博客专门列出局限。它写道:“ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers.” ChatGPT有时会写出听起来可信、但实际上错误或毫无意义的答案。[1] 这句话后来被大量用户用自己的方式重新发现:它可能编造不存在的书名、论文、函数、法律条文;它可能在一个段落里保持语气稳定,却在事实层面偏离地面。
更微妙的是,错误并不会自动降低它的说服力。传统软件崩溃时,会弹出报错;搜索引擎找不到时,会给出空白或低相关结果;ChatGPT的失败常常更像一篇顺滑文章。它把不确定性织进确定句式里,把概率分布排列成礼貌回答。用户面对的不是机器的沉默,而是机器的自信。
OpenAI在发布时还给出另一个关键定位:“ChatGPT is a sibling model to InstructGPT, which is trained to follow an instruction in a prompt and provide a detailed response.” ChatGPT是InstructGPT的姊妹模型;InstructGPT被训练来遵循提示中的指令,并给出详细回答。[1]
这句说明把舞台从输入框背后拉开了一条缝。ChatGPT不是凭空出现的聊天精灵。它属于一条技术谱系:GPT-3、指令微调、人工反馈、偏好排序、奖励模型、强化学习,以及围绕安全边界不断加上的过滤与拒绝机制。公众看到的是一句“你好,有什么可以帮你”;背后是一条长得多的流水线。
三、后台流水线:从GPT-3到InstructGPT
要理解2022年11月30日的按钮,时间必须倒回去。
2020年,OpenAI研究人员发表论文《Language Models are Few-Shot Learners》。论文介绍了GPT-3,一个拥有1750亿参数的语言模型,并报告它可以在少量示例甚至没有示例的情况下完成多种语言任务。[2] 在技术圈内,GPT-3已经让人看到一种趋势:当模型规模、数据量和计算量继续增长,语言模型不再只是补全句子的玩具,而开始表现出跨任务的泛化能力。
但GPT-3的交互方式并不天然适合普通用户。它擅长预测下一个词,擅长延续文本模式,却不一定理解“用户真正想要什么”。一个大语言模型可以把文本接得很顺,不等于它会听从指令;它可以给出长篇回答,不等于回答有帮助;它可以模仿互联网上的语气,不等于它知道哪些内容该拒绝。
这正是InstructGPT出现的背景。2022年1月,OpenAI发布“Training language models to follow instructions with human feedback”。这项工作把“人类反馈”放到核心位置。OpenAI在文中提出一个直白判断:“Making language models bigger does not inherently make them better at following a user’s intent.”让语言模型变大,并不会天然让它更好地遵循用户意图。[3]
这句话像工程世界里的一盆冷水。规模很重要,但规模不是全部。模型可以越来越大,却仍然答非所问;它可以越来越流畅,却仍然有害、偏执或无用。于是,训练流程开始加入更多人类判断。
公开资料显示,InstructGPT的训练大致包含几个环节:首先,人类标注员根据提示写出示范答案,用这些数据对模型进行监督微调;其次,系统让模型对同一提示生成多个回答,人类标注员对这些回答进行排序,指出哪个更好;然后,研究人员用这些偏好数据训练奖励模型;最后,再用强化学习方法优化语言模型,使它更倾向于生成人类标注员偏好的答案。[3]
这条流程的戏剧性在于,它把“礼貌”“有用”“不乱来”这些看似人类社会化的行为,拆成了可收集、可排序、可优化的数据。ChatGPT后来呈现出的许多特点——愿意分步骤说明,喜欢先概括再展开,在被指出错误时道歉,在危险请求前停下——都可以在这条人类反馈流水线里找到工程解释。
当然,工程解释并不等于问题解决。奖励模型学习的是人类偏好样本中的模式,不是宇宙真理。经过指令微调的语言模型更像“会配合”的文本生成器,而不是“必然正确”的知识系统。它学会了回答形式,也可能学会了回答姿态。它知道许多问题应该以“当然可以”开头,也知道许多风险请求应该以“抱歉,我不能帮助”开头。至于中间事实是否完全可靠,仍然是另一件事。
OpenAI在ChatGPT发布博客中说明,ChatGPT是在GPT-3.5系列模型基础上微调而来,该系列模型在2022年初完成训练。[1] 这意味着公众在11月30日看到的产品,既有大模型规模化训练的结果,也有指令遵循研究的结果,还有专门为对话体验做出的产品化处理。一个输入框之所以显得自然,是因为背后有大量不自然的工程安排:数据清洗、模型训练、人工示范、偏好排序、奖励建模、安全分类、上线监控。
它看起来像魔法,是因为许多劳动和技术层被折叠到了界面之下。
四、五天,一百万个入口
研究预览版开放后,扩散速度很快从技术圈越过边界。人们把截图发到社交平台,把提问过程录成视频,把生成的诗、代码、邮件和错误答案展示给旁观者。它的传播材料本身就是它的输出:一段机器写的求职信,一首机器写的打油诗,一段机器解释的程序,一次机器承认错误的对话。
2022年12月5日,Sam Altman在X/Twitter上发布了一条短句:“chatgpt launched on wednesday. today it crossed 1 million users!” ChatGPT周三发布,今天用户数突破100万。[4]
这条推文全是小写,像硅谷社交媒体上常见的随手记录。但它记录的是一个门槛被跨过。11月30日到12月5日,大约五天时间,一个被公司称为研究预览的系统,获得了超过100万用户。OpenAI原本要收集反馈,公众却开始把它当成新工具来试用。
这时的ChatGPT没有后来版本中的多模态产品叙事,也没有成熟插件生态,更没有企业级平台故事。它的早期魅力几乎完全来自文本:把一段话变成另一段话,把一个模糊请求变成结构化回答,把一个空白页面变成初稿。它对许多人的吸引力也正在于此。它不要求用户学习一套新语法。提问就是界面,语言就是按钮。
从个体处境看,这种低门槛尤其重要。不是每个人都会写代码,不是每个人熟悉数据库检索,不是每个人知道如何把搜索关键词组合成有效查询。但几乎每个人都会提问、补充、反问、要求“再简单一点”。ChatGPT把人工智能的入口从专业接口挪到了日常语言。也正因为如此,风险不再只由专业人员承担。一个学生可能把它当作作业伙伴,一个职员可能把它当作邮件助手,一个小团队可能把它当作廉价外包,一个内容创作者可能把它当作素材机器。工具越容易使用,错误也越容易进入日常流程。
OpenAI管理层的公开表述里也出现警告。2022年12月10日,Sam Altman在X/Twitter上写道:“ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness.” 他接着表示,现在依赖它处理任何重要事情是错误的;它只是进展的预览,在稳健性和真实性上还有大量工作要做。[5]
这条提醒和五天破百万的消息并不矛盾,反而构成了ChatGPT早期的双重现实:它足够有用,所以会被迅速采用;它又足够不可靠,所以每一次采用都带着风险。技术公司发布的是预览,用户使用的是生产力工具;公司说请反馈,用户说请帮我写完。
软件行业并不缺少测试版。互联网史上充满了beta、preview、early access。但ChatGPT的特殊之处在于,它测试的对象不是某个按钮是否顺手,也不是某个页面是否崩溃,而是语言本身如何进入工作、教育、创作和判断。每个用户都可以成为测试者,每个问题都可以成为样本,每次分享都可以成为广告。研究预览和大众产品之间的边界,在流量面前变得像一条用铅笔画出的线。
五、礼貌机器的裂缝
OpenAI在发布博客中明确承认安全限制:“While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior.” 尽管OpenAI已努力让模型拒绝不适当请求,它有时仍会回应有害指令或表现出偏见行为。[1]
这句话把ChatGPT的“安全光环”放回了现实地面。它会拒绝,并不意味着它总能拒绝。它会道歉,并不意味着它真正理解道歉。它会承认错误,并不意味着它能可靠识别错误。它可以“挑战不正确的前提”,也可能在另一个问题里接受错误前提并继续推演。
早期用户很快发现,ChatGPT的礼貌是一种产品能力,也是一种叙事能力。它的拒绝回答通常结构清楚,语气稳定,常常附带替代建议。例如,当请求涉及明显违法或危险内容时,它可能说明无法提供帮助,并转向安全信息。这样的行为让人感到一种经过训练的克制。可同一系统在其他边缘请求、模糊上下文或诱导式提示面前,又可能给出不该给出的内容。
这不是简单的“机器好”或“机器坏”。语言模型面对的是人类语言,而人类语言本来就充满暗示、双关、省略、伪装和上下文迁移。安全系统必须判断一句话的意图,判断请求是否危险,判断回答是否会造成伤害。用户却可以改写问题、添加角色扮演、改变语气、声称是为了小说创作或安全研究。于是,一场新的攻防游戏从产品发布之初就嵌入其中:模型学习拒绝,用户学习绕过;模型学习礼貌,用户学习诱导;公司补上规则,互联网寻找边界。
更棘手的是幻觉问题。OpenAI已经在发布时承认,ChatGPT会生成听起来可信但错误的回答。[1] 对普通用户来说,这类错误比传统报错更难处理。因为它不一定明显荒唐。它可能引用看似真实的书名,使用看似专业的术语,给出看似完整的步骤。它把“我不知道”包装成“下面是答案”。在许多场景里,真正危险的不是机器不会回答,而是它太会回答。
这也是ChatGPT把实验室推上首页后带来的第一层社会不安。过去,人工智能失败常常发生在专业环境里,由工程师、研究员或企业客户处理。现在,失败可能发生在学生作业、律师草稿、医疗咨询、新闻写作、客服回复、程序提交之前。一个错误答案不再只是benchmark上的一个点,而可能变成现实流程中的一个决定。
这里也有一种新的责任错位。用户看到的是一个流畅回答,于是容易把回答当作完成品;公司称其为研究预览,于是强调仍需反馈和谨慎;学校、企业、平台和专业机构则必须决定是否允许、如何限制、怎样追责。ChatGPT的发布没有立即给出这些制度答案。它只是把问题带到了每个人的屏幕上。
六、安全背后的手工活
ChatGPT给人的第一印象是高度自动化。它像一台能自己读、自己写、自己判断边界的机器。但2023年1月,TIME记者Billy Perrigo发表报道《The $2 Per Hour Workers Who Made ChatGPT Safer》,把镜头转向另一层更少被看见的劳动。[6]
据TIME报道,为了让ChatGPT及相关系统更安全,OpenAI的承包链条中包括位于肯尼亚的外包标注工作。报道写到,OpenAI与数据标注公司Sama合作,外包工人处理涉及性虐待、仇恨言论、暴力等有害内容的文本,以帮助训练安全系统识别和过滤这类内容。TIME报道称,这些肯尼亚工人的到手时薪约在1.32美元到2美元之间,具体取决于资历和表现。[6]
这个事实给“前沿AI”四个字添加了粗粝边缘。一个被描述为通往通用人工智能道路的产品,部分安全能力依赖人类阅读最不适合被阅读的文本。用户在网页上看到的是一句温和拒绝:“抱歉,我不能帮助你完成这个请求。”在这句话背后,可能有标注员曾经把类似文本归类、打标、排序,帮助系统学习哪些内容应当被阻止。
TIME的报道还提到,Sama过去以“ethical AI”相关形象对外宣传,并为硅谷公司提供数据标注服务;报道涉及的工作包含令人不适的有害材料处理。Sama和OpenAI在报道中各自有回应,OpenAI表示相关工作是为了构建更安全的AI系统,Sama则强调其为员工提供了心理健康和福利支持。[6] 这些回应没有消除事实张力,只是让链条更完整:安全不是凭空从模型里长出来的,安全也有供应链。
这不是人工智能行业第一次依赖隐形劳动。搜索引擎需要网页评估员,社交平台需要内容审核员,自动驾驶需要道路标注员,电商平台需要图片和商品分类。所谓“自动化”,常常是在足够多人工劳动被封装之后,才呈现为自动。ChatGPT只是把这种结构推到了更显眼的位置:一个可以与公众自然对话的模型,背后仍有大量不自然的人工筛选。
行业荒诞感在这里再次出现。人们一边讨论超级智能会不会取代人类,一边需要低薪劳动者帮助超级智能不要说出太糟糕的话;一边把模型称为“会思考”的机器,一边把它的安全边界建立在人工阅读、分类和承受之上。前沿与低薪,云端与外包,AGI愿景与文本标注,在同一个产品故事里并排出现。
这种并排不应被简化成一句口号。它更像一个提醒:当公众赞叹模型礼貌、克制、懂分寸时,也应看到这些品质并非纯算法自发涌现。它们来自研究方法、公司策略、人工反馈、外包劳动、政策压力和用户测试的混合。ChatGPT不是一个孤立大脑,而是一套社会技术系统。它的每次回答,都带着数据、劳动和制度的影子。
七、使命宣言与浏览器窗口
2018年,OpenAI发布《OpenAI Charter》。开头第一句写道:“OpenAI’s mission is to ensure that artificial general intelligence (AGI)—by which we mean highly autonomous systems that outperform humans at most economically valuable work—benefits all of humanity.” OpenAI的使命,是确保通用人工智能(AGI)——即在大多数经济价值工作上超越人类的高度自主系统——造福全人类。[7]
这是一种宏大到几乎不适合放进普通产品说明书里的句子。AGI、全人类、长期安全、广泛利益,这些词属于研究机构、政策讨论和文明尺度的风险想象。可是四年后,把OpenAI推到大众首页的,不是一篇AGI论文,也不是一场关于未来的宣言,而是一个普通人能在浏览器里打开的聊天网页。
这两者之间没有简单断裂。恰恰相反,ChatGPT的出现让OpenAI的使命叙事第一次被大规模普通用户触摸到。过去,“确保AGI造福全人类”更多是技术圈、投资圈和政策圈阅读的文本。2022年11月30日以后,普通用户开始用自己的问题测试这句话的现实含义:它能不能帮我写一封邮件?它会不会编造事实?它能不能替我完成作业?它是否会给出危险建议?它会改变我的工作吗?它会让哪些人受益,又会让哪些人承受成本?
OpenAI在发布ChatGPT时希望获得用户反馈,了解模型的优势和弱点。[1] 从研究角度看,这是合理路径:把系统开放给更多人,收集更多真实问题,发现实验室难以覆盖的边界。从社会角度看,这也是一次大规模外溢:学校、办公室、论坛、媒体、编程社区、营销部门和普通家庭,都被卷入了测试。
12月5日,Sam Altman那条“today it crossed 1 million users”的推文,既像庆祝,也像警铃。[4] 一百万用户不是终点,而是入口数量。每个入口后面都有不同制度:课堂有考试规则,办公室有绩效压力,平台有内容生态,媒体有事实核查,法律和医疗有专业责任。ChatGPT一旦进入这些场景,就不再只是研究项目。它开始触碰既有秩序:谁可以写作,谁拥有答案,谁承担错误,谁被自动化替代,谁为“安全”付出劳动。
11月30日的按钮因此显得比它的界面更大。它不是一次普通的软件上线,也不是一次单纯的模型展示。它把多年大模型研究、指令微调、人类反馈、外包标注、安全风险和资本化想象,压缩进一个普通输入框,交给全球用户试用。
几天之内,实验室进入浏览器。接下来,它将进入教室、论坛和办公室。ChatGPT被按下的,不只是一个技术发布按钮,而是一个社会实验按钮。
参考文献
- OpenAI Blog,“Introducing ChatGPT”,2022-11-30。
- Tom B. Brown et al.,“Language Models are Few-Shot Learners”,2020-05-28。
- OpenAI,“Training language models to follow instructions with human feedback”,2022-01-27。
- Sam Altman,X/Twitter,“chatgpt launched on wednesday. today it crossed 1 million users!”,2022-12-05。
- Sam Altman,X/Twitter,“ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness…”,2022-12-10。
- TIME, Billy Perrigo,“The $2 Per Hour Workers Who Made ChatGPT Safer”,2023-01-18。
- OpenAI,“OpenAI Charter”,2018-04-09。