Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

第13章|新董事会与旧问题:非营利理想如何管理千亿公司

一、原则上

“We have reached an agreement in principle for Sam Altman to return to OpenAI as CEO with a new initial board of Bret Taylor (Chair), Larry Summers, and Adam D’Angelo.”

2023年11月22日前后,OpenAI用这一句极其克制的话,为上一章所写的五天风暴画下公开分隔线:公司“原则上达成协议”,Sam Altman将回归CEO职位,新的初始董事会由Bret Taylor担任主席,Larry Summers加入,Adam D’Angelo留任。[1]

这不是胜利宣言,也不是忏悔书。它甚至不是一个完整句式上的终局承诺。关键词是“agreement in principle”——原则上。后面还有一句同样重要:“We are collaborating to figure out the details.”公司仍在合作敲定细节。[1]

前五天里,董事会解任CEO、总裁Greg Brockman离开、微软公开表示愿意接纳Altman和Brockman、员工联名要求董事会辞职,开发者和企业客户追问API、合同和产品路线图是否会改变。到了11月22日,官方语言忽然从硅谷连续剧切回法律备忘录:原则、初始、细节。

这种反差正是本章的入口。人物回来了,制度问题没有回来;或者更准确地说,制度问题一直在那里,只是风暴把它照得更亮。

Sam Altman随后在X上写道:“i love openai, and everything i’ve done over the past few days has been in service of keeping this team and its mission together.”他爱OpenAI,过去几天做的一切都是为了让团队和使命保持在一起。[2] 微软CEO Satya Nadella也在X上写:“We are encouraged by the changes to the OpenAI board.”接着他说:“We believe this is a first essential step on a path to more stable, well-informed, and effective governance.”微软受到董事会变化的鼓舞,并认为这是通向更稳定、更知情、更有效治理的第一步。[3]

这几句话共同构成危机后的第一版秩序:Altman回任CEO,新董事会启动,微软认可治理变化,员工、客户、开发者和合作伙伴至少得到一个可以继续运转的信号。

可是,“new initial board”里的“initial”不该被滑过去。它说明这不是最终答案,而是临时桥梁。桥的一端,是OpenAI从创立以来反复强调的公益使命;另一端,是ChatGPT之后迅速膨胀的商业现实。桥下流过的,不是抽象价值观,而是云计算账单、企业合同、模型安全评估、员工期权、监管关注、微软合作和公众期待。

到2023年底,OpenAI已经不是一家可以只靠研究文化和创始人威望运转的实验室。它的产品被个人用户用来写邮件、改代码、做作业、准备演示;被创业公司接进客服、搜索、办公和数据分析工具;被大型企业放入采购流程、信息安全审查和合规评估。对于这些人来说,董事会风暴不只是硅谷新闻。它可能意味着供应商风险、路线图风险、合同风险,甚至是“明天早上自动化流程还会不会正常调用API”的风险。

因此,这一章不写“国王归来”。它写的是一个更硬的问题:一个以造福全人类为目标的非营利组织,如何监督一家估值被媒体报道为数百亿美元、服务全球用户、与微软深度绑定的AI公司?

这不是修辞题。2023年11月以后,它成了OpenAI每天都要回答的公司治理题。

二、三人支架

危机后的初始董事会只有三个人:Bret Taylor、Larry Summers、Adam D’Angelo。[1][4]

这个组合很容易被写成“豪华阵容”,但更准确的说法是事故后的临时支架。Bret Taylor担任主席。他曾任Salesforce联席CEO,也曾在Twitter出售给Elon Musk的过程中担任Twitter董事会主席。Larry Summers曾任美国财政部长、哈佛大学校长,长期参与经济政策与公共治理讨论。Adam D’Angelo是Quora CEO,也是危机前董事会中留任的成员。

三个人对应三种信号:成熟科技公司治理经验,宏观经济与公共政策视角,以及旧董事会连续性。

其中最微妙的是Adam D’Angelo的留任。上一章已经写过五天风暴的公开过程,这里不再重走时间线。值得停顿的是:OpenAI没有把危机叙事切成“旧董事会全部失败、新管理层完全胜利”的整齐两段。D’Angelo既是危机前董事会的一员,又是危机后初始董事会的一员。这种安排不适合爽文,却符合制度修复的需要。机构不能只靠清场获得治理能力;它还需要过程记录、信息延续和可审查的责任链。

OpenAI在11月29日发布的博客中确认,Altman回任CEO,Mira Murati回任CTO,Greg Brockman回到公司担任总裁;新初始董事会由Taylor、Summers和D’Angelo组成。[4] 同一篇公告还披露,微软将以无投票权观察员身份加入董事会。[4]

这篇公告把“人事复位”推进为“治理重建”。董事会不再只是三位名字的排列。它必须处理几个棘手问题:此前董事会为什么认为Altman不适合继续领导?新董事会如何重新获得员工、客户、合作伙伴和监管者信任?未来董事会应当如何组成,才能既不是创始人的橡皮图章,也不是缺乏运营信息的道德陪审团?

OpenAI危机的行业荒诞感也在这里出现:一家声称要处理人类级智能风险的公司,首先要处理董事会构成、信息权、利益冲突政策和外部律师调查。人类尚未确认AGI何时到来,公司法已经先到了。

在普通创业公司里,董事会和CEO冲突并不罕见。资本市场有自己的语言:业绩、融资、估值、控制权、股东利益。但OpenAI不是普通创业公司。它的顶层是非营利组织,使命不是股东利润最大化;它的商业实体又承担着平台公司职责,面对消费者、开发者、企业客户和云计算伙伴。董事会既要能对CEO说“不”,又不能因为信息不足或继任安排不足,让公司在一个周末里陷入运营震荡。

这条线太细,细到五天内就可能断裂。

所以,Taylor、Summers和D’Angelo的三人初始董事会不是结局,而是抢修队。它的首要任务不是立刻写出完整历史解释,而是防止公司继续塌方。对于一家AI平台公司来说,治理危机不会停在新闻版面;它会迅速传导为客户风险、员工风险、监管风险和竞争风险。

11月22日的“agreement in principle”,像一次紧急制动后的手动复位。机器重新通电,但报警灯并不一定已经全部熄灭。

三、旁听席上的微软

微软得到的不是投票权。

OpenAI在11月29日博客中写道:“Microsoft will join the Board as a non-voting observer.”微软将作为无投票权观察员加入董事会。[4] The Verge随后以“Microsoft gets a non-voting board seat at OpenAI”为题报道了这一安排。[5]

这句话需要拆开看。无投票权观察员通常意味着可以列席董事会会议、获得更多治理和战略信息、了解讨论过程;但它不能像正式董事那样投票,不能以董事身份决定CEO任免,也不能直接通过董事表决推动重大事项。它不是方向盘,却是副驾驶座;不是控制权,却是信息权。

把这件事写成“微软接管OpenAI”,过于省事,也不准确。公开安排保留了一条形式边界:OpenAI董事会仍由OpenAI任命的董事组成,微软没有投票权。可是,把这件事写成“微软只是旁观”,同样低估了商业现实。旁听者不按表决器,却能听到会议;不能把手伸进投票箱,却能更早知道投票箱旁边发生了什么。

这正是AI产业治理的灰色地带:法律权力和商业依赖不总是同一件事。

微软与OpenAI的关系早已不是普通合作。2023年1月,微软宣布与OpenAI扩展伙伴关系,官方表述是“multiyear, multibillion dollar investment”——多年、数十亿美元投资;微软还表示,Azure将继续作为OpenAI的独家云提供方,支撑OpenAI API、产品和研究工作负载。[6] 至于外界常说的“约100亿美元”,应写成媒体报道口径,而不是微软公告中的条款。[7]

风暴发生后,微软最需要的未必是投票权,而是可预期性。Nadella那句“more stable, well-informed, and effective governance”非常直白:稳定、知情、有效。[3] 对微软这样的合作伙伴来说,OpenAI可以继续强调独立使命,但不能让一个全球AI基础设施供应商的领导层在周末里像实验功能一样被打开、关闭、再恢复。

这里的行业荒诞感并不来自个体,而来自制度本身:一家非营利使命驱动的AI研究机构,最后需要用董事会观察员席位安抚一家全球软件巨头;而这家软件巨头没有投票权,却掌握云、资本、企业分发和客户入口。

这不自动构成阴谋。它更像现代AI公司的物理定律。大模型不只需要论文、理想和安全原则,还需要数据中心、电力、GPU、网络、安全合规、客户支持、销售团队和现金流。OpenAI可以在章程里写下公益使命,但模型训练和推理服务仍然要在物理世界里结账。

对企业客户来说,这种绑定有两面。一面是安心:微软的基础设施、企业渠道和合规体系,能让OpenAI产品更容易进入大型组织。另一面是集中风险:当一个AI供应商同时是热门模型入口、开发者平台和云生态核心能力时,它的治理震荡会沿着供应链扩散。采购经理、CISO、法务团队和应用开发者不一定关心董事会哲学,但他们关心供应商是否稳定,数据处理承诺是否持续,明年的预算是否押错了船。

微软的旁听席因此不是危机的唯一答案,而是一枚制度温度计。温度显示:OpenAI已经热到必须让最大商业伙伴坐得更近一点。

四、Lightcap的排雷表

董事会风暴最先冲击的,不只是硅谷社交媒体,而是OpenAI的运营系统。

企业客户不会只问“谁是CEO”。它们会问:合同是否继续有效?API服务是否稳定?数据安全承诺是否改变?产品路线图是否延迟?企业版功能、合规支持、价格和服务级别是否还按原计划推进?在消费互联网里,用户可以一边吃瓜一边刷新页面;在企业软件里,采购部门和安全团队很少把“供应商正在经历治理危机”当作可爱的产品彩蛋。

这时,COO Brad Lightcap进入公开报道视野。

据Axios报道,2023年11月18日,Lightcap在内部备忘录中表示,董事会决定“was not made in response to malfeasance or anything related to our financial, business, safety, or security/privacy practices”。也就是说,据Axios转述,Lightcap称董事会行动并非因为不当行为,也并非源自财务、业务、安全或安全/隐私实践方面的问题。[8] Axios还报道称,他把事件描述为Sam与董事会之间的沟通破裂。[8]

这不是最终调查报告,也不是法院事实认定。它的重要性在于危机早期的排雷顺序。

第一颗雷,是财务:公司是否出现账目或经营问题?第二颗雷,是客户:是否对客户、投资者或合作伙伴作出有问题的陈述?第三颗雷,是安全与隐私:是否存在足以改变产品信任基础的实践问题?第四颗雷,是传统公司治理意义上的不当行为。

Lightcap据报道排除的,正是这些最容易引发客户恐慌的类别。[8] 对OpenAI来说,这种排除本身就是运营动作。它告诉员工:不要把这场风暴理解成公司基本业务已经失控。它告诉客户:不要立刻假设合同、数据安全和隐私承诺已经失效。它也告诉合作伙伴:危机首先是治理危机,而不是业务爆炸。

这里可以看到“时代中的个体”如何被卷入。不是每个人都有董事会席位,也不是每个人能在X上发出改变局势的帖子。更多人处在流程里:企业客户经理要给客户回电话;安全团队要回答供应商风险问卷;开发者关系团队要安抚担心API中断的创业者;财务和采购团队要判断合同是否继续推进;普通员工要在外部新闻持续更新时维持产品运行。

他们的名字多数不会出现在公告里,但AI基础设施的稳定正靠这些流程维持。模型能力可以写在发布会上,组织连续性却体现在工单、合同、状态页、客服回复和安全审查材料里。

ChatGPT之后,OpenAI已经不能只以研究机构方式处理信任。信任不再只来自模型能力,也来自组织可预期性。一个模型可以在基准测试中超过前代,但如果企业客户担心供应商下周再次更换领导层,技术进步就会被采购风险折价。

Lightcap的角色因此不需要戏剧化。他不是这场风暴中声音最大的名字,却代表公司机器继续运转的那部分工作。董事会与CEO冲突可以在公共叙事里变成宫斗,但企业客户的问题通常朴素得多:下个月账单谁负责?安全审查材料还算数吗?路线图还会兑现吗?开发者接入的接口会不会突然改规则?

OpenAI危机后真正需要修复的,正是这种朴素信任。

五、公益帽子与商业发动机

要理解这场危机为什么超出普通创业公司内斗,必须回到OpenAI给自己的制度承诺。

OpenAI Charter写道:“OpenAI’s mission is to ensure that artificial general intelligence benefits all of humanity.”OpenAI的使命,是确保通用人工智能造福全人类。[9] 这句话在前文已经出现过。放到本章,它不再只是理想宣言,而是治理结构的压力来源。

2019年,OpenAI宣布成立OpenAI LP,采用所谓“capped-profit”结构。OpenAI当时解释说,为实现使命需要更强融资能力,但传统非营利或传统营利结构都不足以平衡使命与资本,于是创建一个由非营利组织控制的有限盈利实体;投资者和员工可以获得有上限的回报,超过上限的收益将归于非营利组织,用于OpenAI使命。[10]

纸面上,这个设计很漂亮:让资本进入,但不给资本无限索取权;让公司商业化,但让非营利使命保留最终控制权。它像给火箭发动机戴上一顶公益帽子。帽子上写着“造福全人类”,发动机下面喷出的则是资本、算力、产品、客户、竞争和估值压力。

问题在于,2023年的发动机已经不是实验室级别。

2023年11月6日,OpenAI首届DevDay上,Altman披露,ChatGPT约有1亿周活跃用户;超过200万开发者使用OpenAI平台;超过92%的财富500强公司使用OpenAI产品。[11] 这些数字把OpenAI推入另一个物种:它是消费级产品平台,是开发者基础设施,是企业AI供应商,也是微软AI战略中的关键能力来源。

再看资本侧。微软官方说法是多年、数十亿美元投资。[6] 2024年2月,《纽约时报》报道称,OpenAI完成一项交易,公司估值约800亿美元。[12] 这不是OpenAI官方估值,必须写成媒体报道;但即使只作为市场信号,也足以说明:OpenAI已经进入数百亿美元估值区间,按人民币折算是数千亿元量级。

于是,治理悖论浮出水面。

非营利董事会的职责,是守住使命,不以股东利润最大化为最终目标。商业实体的日常现实,是服务客户、支付算力、留住人才、推出产品、面对竞争、维持伙伴关系和市场信心。科学家关心模型能力跃迁和长期风险;销售团队关心续约和采购周期;微软关心产品集成和云使用;员工关心组织稳定和股权价值;监管者关心隐私、安全与社会影响;公众则会问:如果这个技术真的影响所有人,为什么“所有人”没有直接座位?

OpenAI的制度创新本来试图回答这个问题。它说:由非营利母体代表使命,控制有限盈利公司。可是,五天风暴证明,代表使命并不等于自动获得治理能力。董事会如果缺乏足够信息,可能无法有效监督管理层;管理层如果掌握过多组织资源,董事会又可能变成装饰。使命需要权力,权力需要信息,信息需要信任。信任一旦断裂,使命语言就会变成危机公告里的背景布。

这不是OpenAI独有的道德失败,而是AI时代公司制度的压力测试。传统科技公司通常说“先增长,再治理”;OpenAI说的是“从一开始就以全人类利益为目标”。这句话更高,也更重。它让公司在商业成功之后必须面对反问:如果你真的变得重要,原来的治理结构还够用吗?

六、三万份文件后的收尾

2024年3月8日,OpenAI发布公告,宣布董事会新增三名成员:Sue Desmond-Hellmann、Nicole Seligman、Fidji Simo;同时,Sam Altman重新加入董事会。[13] 这一天,11月那场风暴被正式放进一套法律审查语言里。

OpenAI称,董事会特别委员会聘请WilmerHale进行审查。公告说,审查包括与OpenAI前董事会成员、OpenAI高管、前董事会顾问以及其他相关证人进行数十次访谈,审阅超过三万份文件,并评估多项公司行动。[13] 对一家经历公开治理危机的公司来说,“超过三万份文件”是一个安抚性数字:它告诉外界,事情不再只是社交媒体碎片、员工联名信和匿名爆料,而是进入律师事务所、访谈记录和文件审阅的世界。

但法律语言也有边界。OpenAI公布的是审查结果摘要,不是完整调查报告。公众能看到结论,不能看到全部证据链。这一点很重要。它让公司获得一个可公开引用的收尾版本,也让外界保留继续怀疑的空间。

公告中最关键的一句是:“The review concluded there was a significant breakdown in trust between the prior Board and Sam and Greg.”审查结论认为,前董事会与Sam、Greg之间存在重大信任破裂。[13]

更关键的是另一句:“The prior Board’s decision did not arise out of concerns regarding product safety or security, the pace of development, OpenAI’s finances, or its statements to investors, customers, or business partners.”前董事会的决定并非源自对产品安全或安全性、发展速度、OpenAI财务状况,或OpenAI向投资者、客户、商业伙伴所作陈述的担忧。[13]

这句话几乎是对外界简化叙事的一次纠偏。危机发生后,许多评论急于把它写成“安全派反商业派”的决战:一边是担心AGI失控的理想主义董事,一边是追求产品速度和商业扩张的CEO。这个叙事有吸引力,因为它整齐,符合AI时代最流行的道德剧模板。但OpenAI在2024年3月公告中给出的版本更难处理:不是产品安全,不是发展速度,不是财务,不是客户或投资者陈述,而是信任破裂。

信任破裂听上去更软,实际上更硬。产品安全问题可以交给评估流程,财务问题可以交给审计,客户陈述可以交给合同和监管。信任问题则关系到董事会是否相信CEO提供的信息足以让它履行职责,CEO是否相信董事会能够理解公司运营复杂性,双方是否共享同一套危机判断。它没有一个简单仪表盘,却足以让董事会按下解任按钮。

OpenAI公告还写道,WilmerHale认为前董事会在其广泛自由裁量权内可以解任Altman,但也认为他的行为并不要求必须被解任。[13] 这是一种典型的法律收束:承认董事会有权做那件事,同时说明那件事不是唯一必要结果。它既没有把前董事会写成非法叛乱,也没有把Altman写成完全不受约束的胜利者。

Bret Taylor在公告中代表董事会说:“We have unanimously concluded that Sam and Greg are the right leaders for OpenAI.”董事会一致认为,Sam和Greg是OpenAI合适的领导者。[13] Reuters同日报道也概括称,OpenAI表示,在调查之后Altman将重返董事会。[14]

至此,五天风暴获得官方结尾:Altman不仅回任CEO,还回到董事会;Greg Brockman继续在领导层中;董事会扩容;WilmerHale审查给出摘要;“重大信任破裂”成为最正式的解释。

可是,这个结尾仍然不是答案。它解释了董事会危机不是什么,却没有完全解释它究竟是什么。不是产品安全,不是发展速度,不是财务,不是客户或投资者陈述。那么,究竟是什么样的信息不对称、沟通失灵和权力关系,足以让一个非营利董事会在没有准备好继任秩序的情况下解任一家全球AI公司CEO?

OpenAI没有在公告中把这个问题完全交给公众。它用法律语言把门合上了一半,也留下了一条缝。

七、没有席位的人类

3月8日之后,OpenAI的新董事会看起来更像一家成熟科技公司的董事会。

Sue Desmond-Hellmann曾任盖茨基金会CEO,带来公共卫生、慈善和大型机构治理经验。Nicole Seligman曾任Sony高管和总法律顾问,带来法律、合规和跨国公司治理经验。Fidji Simo是Instacart CEO兼董事长,带来消费平台和运营经验。Altman回到董事会,则使管理层与董事会之间的关系重新被制度化。[13]

从名单上看,OpenAI在补课:补企业治理,补法律合规,补全球机构经验,补消费平台运营经验。这个方向并不神秘。经历11月风暴后,OpenAI需要的不只是会谈AGI风险的人,也需要能读懂商业组织、客户信任、公共影响和法律责任的人。

但旧问题没有因此消失。

科学家关心安全和长期风险。他们会问,模型能力评估是否足够,部署速度是否过快,商业压力是否会侵蚀谨慎原则。

董事关心使命和控制权。他们会问,非营利母体如何真正监督有限盈利公司,董事会如何获得足够信息,如何避免再次出现信任断裂。

投资者与合作伙伴关心资本回报与稳定。微软这样的伙伴会问,治理是否可预测,产品路线是否连续,云和企业客户承诺是否可靠。

员工和客户关心产品路线与组织连续性。员工需要知道谁在领导公司,客户需要知道服务是否稳定,开发者需要知道平台规则会不会突然改变。

公众关心的东西最宽,却没有直接席位。OpenAI的使命指向“全人类”,但“全人类”不是一个可以按时参加董事会会议、阅读材料、提出反对意见并投票的法人。它不能像微软那样获得观察员席位,不能像员工那样发联名信,不能像客户那样暂停采购,不能像投资者那样通过交易表达估值。公众只能通过监管、媒体、学术批评、用户选择和政治过程间接进入房间。

这就是OpenAI治理悖论最尖锐的部分:使命指向最大范围的人类共同体,制度却仍然必须通过有限数量的董事、合同、投资、雇佣关系和公司法来执行。

OpenAI没有现成模板。传统非营利组织通常不会运营一个估值数百亿美元、拥有上亿周活跃用户、深度嵌入全球云计算平台的商业产品。传统科技公司也很少把“造福全人类”写成高于股东回报的核心治理承诺。OpenAI把两种制度拼在一起,先获得了速度,后遭遇了张力。

兴奋与怀疑必须同时保留。

兴奋在于,这家公司确实推动了AI从实验室走向大众,迫使世界提前讨论通用人工智能、安全、生产力和监管。怀疑在于,当一个组织变得如此重要,它不能只靠个人魅力、使命口号和危机后的临时董事会来证明自己值得信任。

2023年11月22日,“agreement in principle”让OpenAI从悬崖边退了一步。2024年3月8日,WilmerHale审查摘要和董事会扩容让它获得一个制度化收尾。但真正的悬案才刚刚开始:非营利理想能否持续约束商业火箭?董事会能否既理解技术风险,又理解公司运营?微软这样的伙伴能否提供稳定,而不吞没独立性?公众能否在没有直接席位的情况下,仍然影响一家声称服务全人类的公司?

当OpenAI忙于修补董事会时,Google、Anthropic、Mistral、xAI和更多后来者并没有等待。裂缝之后,产品竞赛没有减速,反而加速。治理问题还在桌上,模型发布会已经重新排队入场。

参考文献

  1. OpenAI,X帖文“We have reached an agreement in principle for Sam Altman to return to OpenAI as CEO…”,2023-11-22。
  2. Sam Altman,X帖文“i love openai, and everything i’ve done over the past few days…”,2023-11-22。
  3. Satya Nadella,X帖文“We are encouraged by the changes to the OpenAI board…”,2023-11-22。
  4. OpenAI Blog,“Sam Altman returns as CEO, OpenAI has a new initial board”,2023-11-29。
  5. The Verge,“Microsoft gets a non-voting board seat at OpenAI”,2023-11-29。
  6. Microsoft,“Microsoft and OpenAI extend partnership”,2023-01-23。
  7. Reuters,“Microsoft to invest $10 billion in ChatGPT creator OpenAI, Semafor reports”,2023-01-10。
  8. Axios,“OpenAI COO: Sam Altman ouster not over ‘malfeasance’ or safety”,2023-11-18。
  9. OpenAI,“OpenAI Charter”,2018-04-09。
  10. OpenAI Blog,“OpenAI LP”,2019-03-11。
  11. OpenAI,OpenAI DevDay Opening Keynote,2023-11-06。
  12. The New York Times,“OpenAI Completes Deal That Values Company at $80 Billion”,2024-02-16。
  13. OpenAI Blog,“OpenAI announces new members to board of directors”,2024-03-08。
  14. Reuters,“OpenAI says Sam Altman to return to board after investigation”,2024-03-08。