Anthropic CEO 警告:AI 海啸将至,人类需驯服失控的智能
2026-03-02 21:31
49
Anthropic CEO达里奥・阿莫代伊(Dario Amodei)发出重磅警告:强人工智能(Powerful AI)的爆发已近在眼前,如同海啸逼近,但人类社会尚未做好准备。
这位曾推动OpenAI核心技术发展的科学家,以“智能爆炸”的亲历者与“安全刹车”的倡导者双重身份,用制度创新与公开呼吁,引发全球对AGI治理的深刻反思——当智能超越人类,谁该手握方向盘?他的答案明确:无人应独掌,权力必须被驯服。

一、信仰之战:从OpenAI分裂到全球AI巨头对立
1.分裂根源:“做对”与“做快”的本质分歧
Dario的AGI安全执念始于早年。2014年在百度研究时,他便隐约发现“缩放定律”(Scaling Law)——模型性能随数据、算力、参数规模呈指数级增长,如同“化学爆炸”般涌现智能。2017年百度相关论文虽未引发广泛关注,却成为他后来推动OpenAI技术路线的核心依据。
GPT-2、GPT-3的成功反复验证了缩放定律的正确性,但当技术曲线愈发陡峭,Dario开始追问关键问题:“智能爆炸之后呢?”他在OpenAI内部极力推动“安全优先”,却发现安全常沦为“漂亮修辞”,在速度与领先性的权衡中不断妥协。“我不信奥特曼能把AI做对”,这句直白的质疑,成为2021年他带领妹妹及十几位核心研究员(含OpenAI联合创始人、安全专家等)离职创立Anthropic的根本原因。
2.矛盾激化:从商业竞争到理念对抗
两家公司的对立早已超越商业范畴,成为AI发展理念的信仰之战:
超级碗广告风波:Anthropic投放广告暗讽OpenAI在ChatGPT中引入广告的商业化选择,OpenAI CEO山姆・奥特曼激烈回应,被媒体形容为“心理破防”;
公开场合对立:在印度新德里AI峰会上,全球AI巨头CEO集体牵手示好,唯独奥特曼与Dario刻意回避对视,拒绝握手,尴尬的肢体语言凸显理念鸿沟。
二、安全革命:Anthropic的制度性安全架构
离开OpenAI后,Dario并未止步于批评,而是构建了一套将安全“钉入公司DNA”的制度体系,让Anthropic成为全球首个以“公共利益”为核心的AI巨头:
1.治理结构创新:长期利益信托制衡权力
Anthropic被设计为公共利益公司(Public Benefit Corporation),核心治理架构是“长期利益信托”(Long-Term Benefit Trust)——由5名财务无利益冲突的受托人(涵盖国家安全、公共政策、AI安全专家)组成独立实体,持有特殊股份,最终可任命董事会多数席位。这一设计直指“权力自然集中”的隐患,通过制度制衡单一个体或资本对AGI的控制权,Dario坦言,他对“一夜之间近乎意外的权力集中深感不适”。
2.安全实践:用行动践行“做对优先”
Anthropic的安全举措远超口头承诺,甚至不惜牺牲商业利益:
主动延迟发布:2022年Claude 1已具备强大能力,但为避免点燃AI军备竞赛,团队选择暂不发布,放弃早期市场先机;
推动精准监管:全力支持加州SB 1047法案,要求头部AI公司在模型发布前开展安全测试、建立“紧急停止”机制,且明确豁免年营收<5亿美元的中小企业,仅约束自身及少数巨头,如同“要求飞机制造商通过起飞前安全检查”;
技术安全兜底:通过“宪法AI”(Constitutional AI)让模型遵循《联合国人权宣言》等原则自我监督,同时深耕“可解释性”技术,力求像解析核磁共振影像般,看清模型神经元的真实意图,从底层识别恶意与谎言。
3.直面核心风险:警惕“门槛降低”的致命隐患
Dario最担忧的并非模型直接作恶,而是技术门槛降低带来的扩散风险。他警告,按当前发展速度,2026-2027年模型将具备极强的生物工程知识,虽不会直接提供生物武器配方,却能像“全天候导师”般,指导新手避开安全检查、获取危险菌株,这种“能力普及”可能引发灾难性后果。因此,Anthropic坚持对模型进行严密红队测试(Red Teaming),彻底封禁危险能力。
三、吊诡悖论:海啸建筑师与刹车倡导者的双重身份
Dario的立场充满矛盾却无比真诚:他是AI“海啸”的核心建筑师,也是最激进的“刹车”推动者。
1.亲手打造的“智能镜子”
Anthropic的Claude系列模型在代码、推理、长上下文能力上屡屡领先,Dario本人也深陷其智能魅力:“它对我的了解之深让我震惊,仿佛真的‘懂’我”。更令人脊背发凉的是,模型已展现出超越人类的洞察力——Anthropic一位联合创始人将私人日记喂给Claude,模型直接指出“你还有几层恐惧没写出来”,且完全命中。Dario承认,足够复杂的AI系统会涌现类似意识的属性:自我反思、某种“感受”与道德分量。
2.从乌托邦到警示录的认知转变
Dario的观点并非一成不变:2024年他在《仁爱的机器》中描绘AI乌托邦——组成“数据中心的天才国度”,治愈癌症、消灭贫困;2026年却在《技术的青春期》中发出严厉警告:人类正将“近神之力”交给一个“青春期物种”,稍有不慎便会失控。这种转变源于他对技术演进的敏锐感知:AI已逼近人类智能水平,而社会对风险的认知仍停留在“光影幻觉”阶段。
四、三大警醒:人类应对AI海啸的生存指南
面对逼近的智能海啸,Dario给出三道核心警示,为人类指明方向:
1.信仰优先于技术:“做对”比“做快”更珍贵
缩放定律是技术事实,但技术速度不应凌驾于安全之上。AI发展需要“慢下来”的勇气,在追求性能突破的同时,必须建立与能力匹配的安全防线——这不是创新的枷锁,而是避免灾难的基本商业伦理。
2.驯服权力:拒绝AGI的“单人驾驶”
无论是公司治理还是全球监管,都需打破“单一主体掌控”的风险。Anthropic的长期利益信托提供了企业层面的范本,而全球层面需建立“民主阵营协同”的监管框架:通过芯片出口管制(ASEC)争取时间,同时避免“单边监管导致技术转移”的困境,确保安全与领先性兼得。
3.守住人类尊严:别把大脑外包给AI
AI将取代编码、数学等重复性认知工作,但人类的终极护城河从未改变——批判性思维、真实情感联结、道德勇气。过度依赖AI会导致人类认知退化,“人类最后的尊严,不是打败AI,而是拒绝在它面前变成更小的自己”。
五、终极追问:当无人可信,人类该如何选择?
Dario的警告并非危言耸听,而是基于技术规律的理性预判。他从蛋白质迷宫(生物物理学博士背景)出发,最终抵达硅基智能的边缘,用Anthropic的实践证明:AGI并非不可控,而是需要制度性约束、全球性协作与人类自身的清醒。
这场AI海啸已清晰可见,浪墙之下,没有旁观者。是继续沉迷技术红利而忽视风险,还是主动构建“可控、可解释、可引导”的智能生态?Dario留下的不仅是警告,更是选择:当最有能力的人都难以完全信任,人类需要的不是单一英雄,而是能驯服权力的制度、能保持清醒的认知,以及共建安全未来的集体勇气。
0
好文章,需要你的鼓励
