OpenAI经济研究员辞职抗议压制负面研究

2025-12-15 12:59
151
据《连线》12月9日报道,Cunningham在内部留言写道,团队“在进行严谨分析与充当OpenAI倡导者之间产生了越来越大的紧张关系”,并强调“发布负面研究结果变得愈加谨慎”。他回忆,早期OpenAI鼓励大胆探索,如今讨论AI潜在经济风险时却常被提醒“注意公众形象和投资者关系”。
短短三个月内,至少两名成员因研究受限已离开该团队。另一名未具名前员工证实,其关于大模型对低收入岗位冲击的论文被连续两次打回修改,理由都是“措辞过于悲观”,最终选择离职。这是否意味着OpenAI正从“出版优先”滑向“形象优先”?
OpenAI发言人回应称“公司并未压制任何研究”,并列举数据:2023年以来经济研究团队编制扩大40%,全年公开发表论文及政策简报共27篇。然而目前公开信息有限,尚无法核实被“扩大”的岗位是否仍拥有独立发表权;对于Cunningham提及的被压回论文,公司也未披露标题与摘要。
这场出走把“系统性压制负面结论”的质疑重新推至聚光灯下。2020年,OpenAI治理团队曾发布承诺,保证“研究发表不受商业部门干预”。短短四年,同一机构被前员工指责“文化转向”。反差之剧烈,令人发问:当AI风险研究可能直接牵动估值,企业还能否守住“独立”底线?
对比看,同行路径各异。Anthropic设立“长期利益信托”并授予独立董事否决权,试图用治理结构隔离商业压力;谷歌DeepMind则要求敏感议题论文须过法务、公关双重关卡,流程平均拉长3个月,被内部戏称为“冷却期”。OpenAI原本以“出版优先”标签标榜差异,如今却面临与谷歌类似的“冷却”指控。若信任赤字继续扩大,其政策影响力会否被 Anthropic 甚至传统高校智库压过?
监管侧也在紧盯。欧盟《AI公约》草案新增条款,要求高风险系统提供商“如实披露已知局限”,若被证实蓄意隐瞒负面发现,最高可处全球年营业额2%罚款。美国商务部则在10月启动“模型影响审计”试点,邀请第三方机构调阅企业内部研究邮件。Cunningham的公开指控已出现在参议院工作人员简报,或加速国会推进对通用人工智能的强制披露立法。
接下来值得观察三点:其一,OpenAI能否拿出可验证的“被允许发表”清单,而非仅给出团队人数;其二,更多留守学者是否会在学术会议上“匿名”披露被压论文细节;其三,投资人是否会在下一轮条款中加入“研究独立性”对赌,一旦失信即触发额外稀释。毕竟,当技术竞争进入深水区,市场押注的已不只是参数规模,更是透明度和可信度。
28
好文章,需要你的鼓励