第10章|监管者入场:听证会、禁令、罢工与风险宣言
一、罗马按下暂停键
ChatGPT爆红四个月后,最先让这个产品在一个G7国家暂时停摆的,不是竞争对手,也不是服务器账单,而是一个国家的数据保护机构。
2023年3月31日,意大利个人数据保护机构Garante在官网发布公告,题为“Artificial intelligence: stop to ChatGPT by the Italian SA”。公告称,意大利监管机构对OpenAI实施立即生效的临时限制,限制其处理意大利用户数据。[1]
一个网页公告,让当时全球最受瞩目的AI产品在意大利按下暂停键。
这件事的戏剧性,不在页面设计。监管文件没有产品发布会的灯光,没有模型演示,也没有“下一代智能”的修辞。但它拥有另一种力量:它可以把一个已经被大量用户试用、被媒体连续报道、被投资人追逐的新产品,从一个国家的普通用户面前暂时移走。
前几章已经写过,ChatGPT在2022年11月底以网页聊天机器人的形态进入公众视野;到2023年3月底,围绕它的讨论已经不再只是“会不会写诗、写代码、写邮件”。监管者提出的是另一组问题:它能不能这样收集数据?能不能这样训练模型?能不能这样面对未成年人?用户输入给系统的内容,究竟进入了怎样的处理链条?
Garante的公告列出几项核心关切。监管机构称,3月20日ChatGPT曾发生涉及用户对话和付费用户付款信息的数据泄露;用户和所有数据主体没有得到充分告知;OpenAI大规模收集和存储个人数据以训练算法,缺乏法律依据;模型生成的信息可能不准确;平台缺少验证用户年龄的机制,未成年人可能接触到与其发育程度不相称的回答。[1]
这些问题听起来像行政法课堂上的清单,却准确击中了生成式AI的底座。ChatGPT不是传统搜索框。用户把草稿、病历摘要、商业计划、程序错误、家庭烦恼、法律困惑一股脑儿输入系统;系统根据训练得到的能力给出回答,也可能继续利用用户交互改善服务。隐私、训练数据、透明度、错误信息和未成年人保护,在旧互联网时代分别属于不同部门、不同法规、不同投诉入口。大模型把它们塞进了同一个聊天窗口。
意大利监管文件的对象不只是OpenAI。它实际敲响的是欧洲隐私监管体系的门铃。欧盟有GDPR,有成员国数据保护机构,有跨境执法协作机制。过去几年,Meta、Google、Amazon等大型平台已经习惯在欧洲面对隐私合规审查。但ChatGPT带来的问题有一层新意:它不是只处理用户上传的照片、点击行为或社交关系,而是把互联网上长期存在的大规模文本、用户现场输入、模型输出和商业产品包装在一起。监管者要问的不是单一按钮是否合规,而是整套“数据—训练—生成—再使用”的机器如何被解释。
Garante给OpenAI二十天时间说明采取了哪些措施。公告还提到,如果违反GDPR相关规定,可能面临最高二千万欧元或全球年度营业额4%的罚款。[1] 这类罚款数字在科技监管新闻里并不罕见,但放在2023年春天,它有一种行业荒诞感:一边是公司和投资人讨论通用人工智能的长期命运,一边是监管文件要求它先说清楚隐私告知、法律依据和年龄门槛。
四月,暂停键又被松开。4月28日,Garante发布公告称,OpenAI采取措施后,ChatGPT在意大利恢复服务。[2] 公告列举了整改方向:OpenAI在网站上提供面向用户和非用户的信息说明;为欧洲用户提供反对其数据被用于训练算法的表格;为非用户提供反对处理其个人数据的方式;让用户可以要求更正或删除被认为不准确的信息;增加年龄确认机制,并承诺继续推进更强的年龄验证方案。[2]
这不是监管故事的结束,而是开头。ChatGPT在意大利恢复,并不意味着所有问题被终局解决。它更像一次现实世界的演练:当生成式AI产品越过实验室、越过开发者社区,进入教育、办公、创作和日常搜索时,监管者不会永远站在场外看演示。他们可以用最传统的工具——公告、命令、整改清单、罚款威胁——迫使最前沿的模型公司解释自己。
行业喜欢把2023年称为大模型元年。罗马的这个网页提醒它:元年不只有发布会,也有执法文书。
二、从隐私故障到制度问题
意大利事件发生时,ChatGPT保持着一种奇特的双重身份。它像消费者产品,任何人都可以输入问题;它又像基础设施,正在被公司接入客服、写作、编程、搜索和办公流程;同时,它还是一只黑箱,外界很难知道训练数据的精确构成、模型能力边界,以及安全措施在多大程度上有效。
这让传统监管节奏显得笨拙。药品进入市场前,有临床试验、审批、说明书和不良反应监测;汽车上路前,有碰撞测试、召回制度和道路法规;金融产品销售前,有披露义务、适当性要求和监管报送。生成式AI进入公众生活时,先出现的是一个对话框。用户体验几乎没有门槛,责任结构却没有同步生成。
意大利监管者抓住的是隐私,但隐私只是第一层。更深处的问题是:谁有权决定一个高能力AI系统何时上线?上线前要不要做第三方测试?如果系统生成错误医疗建议、泄露私人信息、帮助网络攻击、生成诽谤文本,责任由模型公司、应用开发者、部署企业还是用户承担?如果训练阶段使用了互联网上受版权保护的作品、个人信息和公共数据,许可、退出和补偿机制在哪里?
这些问题在2023年春天迅速从专业圈扩散到政治系统。美国没有像欧盟那样统一的GDPR式个人数据保护框架,但它有国会听证会,有联邦贸易委员会,有行业监管传统,也有一种经久不衰的仪式:把科技公司高管请到国会山,在摄像机前要求他们解释未来。
2023年5月16日,华盛顿,美国参议院司法委员会隐私、技术与法律小组委员会举行听证会,题为“Oversight of A.I.: Rules for Artificial Intelligence”。出席作证的三个人形成了一个小型三角:OpenAI首席执行官Sam Altman,IBM首席隐私与信任官Christina Montgomery,纽约大学教授Gary Marcus。[3]
这场听证会的开头带有2023年独有的荒诞感。根据听证会公开视频,参议员Richard Blumenthal播放了一段由AI生成的声音,模拟他的声音朗读一段由ChatGPT生成的开场白。[3] 国会大厅没有变成科幻片,但技术已经先一步模仿了主持听证的人。监管者要讨论AI,AI先帮监管者写了一段监管AI的开场。
这不是单纯噱头。它提供了一个直观的政治问题:当声音、文本、图像和身份都可以被模型合成,公众生活中的“真实”如何维持?竞选广告、诈骗电话、新闻图片、公司声明、学生论文、合同草稿,都可能被生成技术改变成本结构。过去,制造大规模伪造内容需要设备、团队和专业技能;到2023年,一个网页产品和几句提示词就可以把门槛压低。
Altman在听证会上没有选择完全对抗监管。他的书面证词写道:“regulatory intervention by governments will be critical to mitigate the risks of increasingly powerful models。”[4] 这句话在科技行业史里有一点反常。许多平台公司在早期扩张阶段倾向于把监管描述为创新的阻碍;OpenAI的CEO则在国会作证时公开说,政府监管对降低越来越强大的模型风险至关重要。
但这也不是简单的“公司请求被管”。Altman强调的是高能力模型的监管框架,包括能力阈值、许可、测试、安全标准等。[4] 他没有要求所有AI软件都进入同一套许可制度。对OpenAI而言,这种立场同时具有公共政策意义和行业竞争含义:如果监管门槛围绕最先进、最大规模、最高风险的系统建立,那么已经拥有资金、算力、人才和安全团队的公司,反而可能比后来者更容易适应。
制度问题由此浮出水面。一个行业最领先的公司要求监管,可能是真诚的风险意识,也可能在客观上推动形成更高的准入门槛;可能帮助社会建立安全底线,也可能让规则设计被少数巨头的技术路线绑定。2023年的AI治理,从一开始就带着这种双重性:人们需要公司提供信息,因为只有公司知道模型如何训练、如何部署、如何失败;人们又不能只依赖公司提供答案,因为公司本身就是被监管对象。
三、国会大厅里的三种答案
如果说Altman代表的是前沿模型公司的答案,那么Gary Marcus代表的,是另一种长期在AI领域内部存在、但在ChatGPT爆红后被更多公众听见的声音。
Marcus不是反对AI研究本身。他长期批评的是过度宣传、可靠性不足、黑箱系统和公司自我监管。在提交给参议院的书面证词中,他把问题集中在安全性、可解释性、误导性输出、偏见、操纵、网络安全和制度缺口上。[5] 对他来说,ChatGPT式系统最麻烦的地方,不是它偶尔说错,而是它可以以非常流畅、非常自信、非常低成本的方式大规模说错。一个会胡编的系统,如果只在玩具场景里回答冷知识,风险有限;如果被接入教育、法律、医疗、金融和公共管理,错误就不再只是笑话。
Marcus的主张是,不能让公司自己给自己发通行证。前沿AI系统需要独立评估、透明报告和强制性安全要求;监管机构需要技术能力,而不是等灾难发生后再追责。[5] 这与Altman的监管姿态有交集,也有冲突。双方都承认风险存在,都承认需要规则;分歧在于规则由谁设计、谁执行、信息披露到什么程度、公司商业秘密能否压倒公共安全。
IBM的Christina Montgomery给出第三种答案。她代表的不是一家以ChatGPT定义自身的公司,而是一家长期服务企业和政府客户的技术公司。Montgomery在书面证词中主张采用“precision regulation”路径,即围绕AI的具体用途和风险进行监管,而不是对所有AI技术一刀切。[6] 这条路线在企业软件世界里很有吸引力。一个用于餐厅菜单翻译的模型,与一个用于信贷审批、保险定价或招聘筛选的模型,风险显然不同。监管如果不区分场景,可能会把低风险创新拖进高成本合规泥潭;监管如果只看场景、不看基础模型能力,又可能漏掉通用系统被重新部署后的风险。
三个人同场作证,让美国国会得到了一张2023年AI治理的简化地图。
第一条路线,是前沿公司路线:承认强模型有风险,支持政府为最高能力系统建立许可、测试和审计框架。第二条路线,是批评者路线:警惕公司自我监管,要求更强的透明度、独立评估和公共机构能力。第三条路线,是产业治理路线:按用途、风险和部署场景建立规则,避免把AI作为一个抽象整体粗暴处理。
这些路线并不互相排斥。真正困难的是把它们变成法律。听证会可以制造共识,法律需要定义词语。什么叫“高能力模型”?能力阈值如何测量?谁有资格测试?模型开源后怎样监管?API服务与本地部署责任如何区分?企业客户微调模型造成损害,基础模型公司是否承担责任?监管机构如果要求披露训练数据,商业秘密、版权、隐私和国家安全怎样平衡?
国会大厅里,问题比答案跑得更快。这是2023年AI监管最稳定的图景之一:所有人都同意不能什么都不做,但任何具体方案都会立刻撞上技术、商业和法律的复合墙。
四、科学家走出实验室
5月的另一条线索,把“风险”这个词推向更冷的方向。
2023年5月1日,《纽约时报》刊出Cade Metz对Geoffrey Hinton的报道,标题是“‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead”。Hinton是深度学习的重要奠基者之一,曾与Yoshua Bengio、Yann LeCun共同获得2018年图灵奖。报道说,Hinton离开Google后公开谈论AI风险;他对《纽约时报》说:“It is hard to see how you can prevent the bad actors from using it for bad things。”[7]
这句话与国会听证会的语言不同。参议院讨论的是许可、审计、监管机构、产业标准;Hinton谈到的是更基本的滥用问题:如果技术能力扩散,如何阻止坏人用它做坏事?这个问题没有整齐的政策边界。网络钓鱼、虚假宣传、自动化诈骗、生物安全、网络攻击、舆论操纵,都可以被放进“bad things”的篮子里,而篮子没有自动封口。
Hinton的公开警示之所以引发震动,不只是因为他说了风险,而是因为说话者的身份。他不是长期站在AI产业外部的评论员,也不是以反技术立场闻名的社会活动家。他的研究参与塑造了深度学习的胜利,而深度学习又是大模型浪潮的重要基础。行业叙事里常见的“先驱”“教父”“奠基者”标签,在这里反过来增加了话语重量。
但必须区分不同类型的风险。2023年围绕AI的风险讨论,常常被压缩成一个词,好像所有担忧都指向同一个终点。事实并非如此。有人担心的是长期灭绝风险,即未来更强系统可能脱离人类控制,造成文明级灾难;有人担心的是滥用风险,即现有或近期系统被用于诈骗、攻击、造假和压迫;有人担心的是失控风险,即复杂系统在目标设定、工具使用和自主行动中出现不可预测行为;还有人更关注现实社会风险,包括劳动替代、偏见歧视、隐私侵犯、版权侵害和权力集中。
把这些风险混成一团,既方便传播,也容易误导。一个编剧担心剧本被拿去训练模型,并不等同于他在讨论人类灭绝;一个安全研究者担心模型帮助生成恶意代码,也不必然支持暂停所有AI研究;一个科学家讨论长期失控风险,也不意味着他否认眼前的版权和劳动问题。2023年的公共讨论,经常在这些层次之间跳跃,像一个同时打开十几个浏览器标签页的行业会议。
5月30日,Center for AI Safety发布了一句话声明:“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war。”[8] 这句英文的意思是:降低AI导致灭绝的风险,应当成为全球优先事项,与流行病、核战争等社会规模风险并列。签名者包括多位AI研究者和公司负责人,Hinton、Bengio、Demis Hassabis、Sam Altman、Dario Amodei等人的名字都出现在公开页面上。[8]
一句话声明的威力,来自它的极端简洁。它没有提出监管细则,没有定义技术路线,也没有解释概率模型。它做的是议程设置:把“AI灭绝风险”从科幻小说、论坛争论和小圈子论文,推入主流媒体和公共政策语言。支持者认为,极端风险即使概率不高,只要损害足够巨大,也值得提前治理。批评者则指出,把注意力过度集中在遥远的灭绝风险上,可能稀释对现实伤害的处理:工人被替代,创作者被侵权,少数群体被偏见系统影响,用户隐私被训练管线吸走,这些问题已经发生或正在发生。
这正是本章的转折。AI风险不再是单数。它同时存在于未来灾难的想象、国家监管的文件、国会听证的证词、工会谈判的条款和法院诉状的段落里。2023年,所有这些文本开始互相挤压。
五、白宫的自愿承诺
国会听证会之后,美国行政系统也加快了动作。2023年7月21日,白宫发布事实清单,宣布七家领先AI公司作出自愿安全承诺:Amazon、Anthropic、Google、Inflection、Meta、Microsoft和OpenAI。[9]
白宫把这些承诺归入安全、保障和信任三个方向。具体包括,在系统公开发布前进行内部和外部安全测试;分享管理AI风险的信息;投资网络安全和内部威胁防护;支持第三方发现和报告漏洞;开发技术机制让用户知道内容由AI生成,例如水印;公开报告模型或系统的能力、限制以及适合和不适合的使用领域;优先研究偏见、歧视、隐私等社会风险;并开发AI帮助应对社会重大挑战。[9]
这是一种典型的软监管。它不是法律,不是罚款决定,也不是法院判决。它更像政治权力要求公司站到台前,当众承认最低限度的安全义务。对于仍在高速迭代的AI行业,这类承诺有现实功能:它可以迅速建立一套公共词汇,让不同公司至少在测试、透明、水印、风险研究等方面承认共同方向。比起等待漫长立法,白宫可以更快把企业拉进一个公开框架。
但自愿承诺的局限也同样明显。自愿意味着公司承诺做什么,也意味着边界主要由公司和政府协商形成;如果没有强制审计、法律责任和处罚机制,外部社会很难判断承诺执行到什么程度。模型测试结果公开多少?红队测试由谁做?水印能否被绕过?开源模型和闭源API是否适用同样要求?公司声称某系统“不适合”医疗或法律建议,用户仍然那样使用时,责任如何划分?
更微妙的是,这七家公司本身并不处在同一位置。OpenAI、Anthropic和Inflection直接以大模型助手为核心产品;Google、Meta、Microsoft和Amazon拥有云计算、广告、社交网络、办公软件、搜索、硬件和开发者平台。它们对监管的偏好不会完全一致。云服务商关心客户部署责任,模型公司关心训练和发布标准,平台公司关心内容分发和广告生态,开源倡导者关心权重开放是否被一刀切限制。白宫把它们放在同一张事实清单上,展示的是政治协调能力;事实清单之外,仍然是商业利益和技术路线的长期拉扯。
2023年7月的这份承诺,也说明监管者已经不满足于事后回应。意大利按下暂停键,是产品上线后的执法;参议院听证会,是立法系统收集意见;白宫自愿承诺,则是行政权力在正式硬法落地前,先把公司拉进公共安全叙事。监管还没真正成型,但公司已经被要求表态:不能只说“模型更强”,还要说“如何让它不伤人”。
行业仍在兴奋。每周都有新模型、新插件、新融资、新排行榜。怀疑也同步增长。越是强大的工具,越不能只靠演示视频证明安全;越是通用的系统,越不能只用单一行业标准解释责任。白宫的自愿承诺像一条临时护栏,能提醒车辆减速,却还不是完整的交通法。
六、罢工线上的AI
如果说Hinton和CAIS把风险推向“灭绝”“核战争”“流行病”这样的全球语言,那么好莱坞把问题拉回工资单、合同和肖像权。
2023年5月2日,美国编剧工会WGA开始罢工。罢工原因包括流媒体时代的薪酬、残余收益、编剧室规模、工作保障等,AI只是其中一项,但它很快成为最容易被公众理解的焦点之一。WGA在谈判状态说明中提出,应当规范AI在受MBA协议覆盖项目中的使用:AI不能写作或改写文学材料,AI生成材料不能作为来源材料,MBA覆盖材料不能用于训练AI。[10] 制片方联盟AMPTP没有接受这一提案,而是提出每年开会讨论技术进展。[10]
“每年开会讨论AI进展”这句话放在2023年,几乎自带行业喜剧效果。大模型产品以周为单位更新,插件生态以天为单位冒出,用户提示词以小时为单位传播;劳资谈判桌上,回应却是年度会议。幽默不在某个谈判代表身上,而在速度差本身:技术像流媒体倍速播放,合同像有线电视节目表。
编剧们的核心问题并不是“AI有没有意识”。他们问得更直接:如果制片厂用AI生成故事大纲,是否会减少编剧岗位?如果AI根据已有剧本生成草稿,编剧是在创作还是在廉价修补机器文本?如果编剧写过的材料被拿去训练系统,未来系统又被用来替代编剧,这算不算用劳动者的历史劳动削弱其未来议价能力?
7月,演员也加入罢工。SAG-AFTRA全国委员会7月13日投票,对电影电视制片公司和流媒体平台发布罢工令。[11] 这场罢工同样涉及薪酬、残余收益和工作条件,但AI问题尤其集中在数字替身、肖像和声音使用上。SAG-AFTRA在罢工期间反复强调,AI使用需要知情同意和公平补偿。[11]
同一天,《Variety》报道转述SAG-AFTRA首席谈判代表Duncan Crabtree-Ireland的说法:制片方方案会允许公司扫描背景演员,支付一天报酬后,在未来项目中使用其形象。报道同时写到,AMPTP方面对这一表述提出异议,称其AI方案包含同意要求,且对数字复制品的使用有所限制。[12] 在纪实叙事里,这种互相冲突的公开说法不能被提前改写成裁判结论。能够确认的是,AI已经成为劳资双方谈判中需要写进合同的议题。
数字替身让演员面对一种不同于传统失业的风险。机器不只是“抢走一个角色”,而是复制身体、脸、声音和动作,并把它们变成可重复调用的资产。一个演员过去出售的是某次表演、某个拍摄周期、某份合同中的劳动;AI和扫描技术让制片方可能想购买一种更持久的“可生成身份”。这正是工会必须介入的地方:在技术成为默认条款之前,把同意、补偿、用途限制和时间范围写进合同。
好莱坞罢工让AI治理从监管白皮书进入街头标语。罢工队伍不需要证明大型语言模型是否会导致人类灭绝,也不需要解释Transformer架构。他们只需要指出一个具体变化:如果创作产业的输入是作家的文本、演员的表演和艺术家的作品,输出却由平台、模型公司和制片厂集中变现,那么劳动分配规则必须重新谈判。
这条线索也让“数据”这个词恢复了人的形状。在模型论文里,数据常常以token、语料库、网页快照、参数规模出现;在工会谈判里,数据是某个编剧写过的剧本、某个演员被扫描的身体、某个画师上传的作品、某个小说家出版的书。技术系统把它们抽象为训练材料,法律和劳动关系又把它们重新具体化为权利。
七、诉状里的训练集
2023年9月,创作者的反击进入法院。
9月19日,Authors Guild及多位作家在美国纽约南区联邦地区法院起诉OpenAI及相关实体。原告包括John Grisham、Jodi Picoult、George R.R. Martin、Jonathan Franzen等作家。诉状称,OpenAI未经授权复制受版权保护的书籍,用于训练大型语言模型,并认为这些模型可以生成摘要、仿作或其他可能影响作家市场的输出。[13]
这份诉状把此前许多文化争论变成了法律问题。训练模型是否构成复制?如果构成,是否属于合理使用?模型内部是否“记住”作品?输出近似风格是否侵权?如果一本书被盗版网站收录,又被用于训练商业模型,模型公司能否以“数据来自公开网络”为由免责?作家能否要求赔偿、禁令或许可机制?
这些问题没有简单答案。美国版权法中的合理使用分析,需要考察使用目的和性质、作品性质、使用部分的数量和实质性、对潜在市场的影响等因素。AI训练方通常会强调训练是转换性使用,模型学习统计关系而不是向用户分发原书;创作者则强调,没有授权的全量复制本身就是商业系统的基础,而且模型可能替代或侵蚀衍生市场。双方都能找到法律语言,法院则必须把二十世纪形成的版权概念,放进二十一世纪的神经网络训练流程里重新解释。
诉讼的意义不只在胜负。它迫使行业从“互联网上有很多文本”这句轻飘飘的话,走向更精确的责任链条。文本是谁写的?在哪个条件下发布?是否允许抓取?是否允许商业训练?如果不允许,退出机制在哪里?如果已经训练,补偿如何计算?模型公司说不清训练集,是否还能证明自己没有侵权?如果模型能力依赖海量作品,而单个作者很难证明自己的作品对某次输出的贡献,集体诉讼、许可组织或法定机制是否会出现?
这里的荒诞感同样强烈。大模型行业一边把训练数据称为公开可得信息,一边把训练完成后的模型称为核心资产和商业机密;一边强调模型不是复制作品,只是学习语言规律,一边又用模型能模仿名家风格、生成长篇文本来展示能力。创作者看见的是另一面:自己的作品在训练前是“数据”,训练后别人的产品是“智能”。
监管者、科学家、公司和创作者,在2023年并没有使用同一种语言。监管者说合法依据、年龄验证、透明度;国会议员说许可、机构、国家竞争;科学家说灭绝风险、失控和滥用;工会说合同、同意和补偿;作家说复制、市场和版权。生成式AI把这些语言推到同一张桌上,没有哪一种能单独解决全部问题。
八、谁来负责
到2023年夏秋,AI故事已经不再属于单一主角。
OpenAI仍是焦点,但它不再只是发布产品的公司;它也是意大利监管命令中的数据控制者、参议院听证会上的证人、白宫事实清单里的承诺方、作家诉状中的被告。Sam Altman仍然是公众面孔,但他身边站着监管者、批评者、企业隐私官、科学家、工会领袖和原告律师。行业从“谁的模型更强”进入“谁有权部署、谁承担损害、谁获得收益”的阶段。
意大利按下暂停键,显示隐私监管可以直接影响产品可用性。美国参议院听证会显示,技术公司已经无法只在开发者大会上解释自己。Hinton和CAIS声明显示,AI风险进入主流科学和政策语言,即使这种语言本身充满争议。白宫自愿承诺显示,在硬法抵达前,政治权力会先要求企业公开承诺。好莱坞罢工和作家诉讼则显示,最具体的冲突往往不在未来世界,而在当下合同:谁的劳动被使用,谁的脸被扫描,谁的书被训练,谁拿到报酬。
问题没有在这一章结束。政府能否跟上模型能力迭代,仍然未知。公司自愿承诺能否变成可审计、可执行、可追责的制度,仍然未知。创作者、用户和社会受到损害时,责任链条如何建立,也仍然未知。
2023年的AI行业继续向前。模型变大,产品变多,开源权重继续扩散,企业客户继续试点,监管文件继续堆积。兴奋与怀疑并存,不是因为叙事需要平衡,而是因为事实本身如此:这项技术确实展示了罕见的能力,也确实把旧制度的缝隙照得发亮。监管者入场之后,问题从“能不能做”变成“谁来负责”。而这个问题,比任何一次演示都更难跳过。
参考文献
- Italian Garante,Artificial intelligence: stop to ChatGPT by the Italian SA,2023-03-31。
- Italian Garante,ChatGPT: OpenAI reinstates service in Italy with enhanced transparency and rights for European users and non-users,2023-04-28。
- U.S. Senate Judiciary Subcommittee on Privacy, Technology, and the Law,Oversight of A.I.: Rules for Artificial Intelligence,2023-05-16。
- Sam Altman,Testimony before the U.S. Senate Judiciary Subcommittee on Privacy, Technology, and the Law,2023-05-16。
- Gary Marcus,Written Testimony for “Oversight of A.I.: Rules for Artificial Intelligence”,2023-05-16。
- Christina Montgomery,Written Testimony for “Oversight of A.I.: Rules for Artificial Intelligence”,2023-05-16。
- The New York Times,Cade Metz,“‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead”,2023-05-01。
- Center for AI Safety,Statement on AI Risk,2023-05-30。
- The White House,FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies,2023-07-21。
- Writers Guild of America,WGA Negotiations—Status as of May 1, 2023,2023-05-01。
- SAG-AFTRA,SAG-AFTRA National Board Votes Unanimously to Issue Strike Order Against Studios and Streamers,2023-07-13。
- Variety,Gene Maddaus,“SAG-AFTRA Leaders Say Studios Want to Scan Background Actors, Pay Them for One Day’s Work and Use Their Likenesses Forever”,2023-07-13。
- Authors Guild et al. v. OpenAI Inc. et al.,Complaint, U.S. District Court for the Southern District of New York,2023-09-19。