五角大楼考虑切断与 Anthropic 合作:Claude AI 军事用途限制引发僵局
2026-02-15 21:01
56
2月15日消息,据 Axios 和路透社独家报道,美国国防部(五角大楼)正考虑终止与人工智能公司 Anthropic 的合作关系。双方围绕 Claude AI 模型军事应用限制的长期对峙已陷入僵局,五角大楼官员对谈判进展"忍无可忍"。这一争端将 AI 伦理与国家安全需求的冲突推向风口浪尖。

核心分歧:"所有合法用途" vs 伦理红线
这场博弈的本质是两种价值观的正面碰撞:
五角大楼立场:
国防部正在推动包括 Anthropic 在内的四家 AI 头部企业放宽使用限制,以确保 AI 工具可用于军事"所有合法目的"。这涵盖情报分析、武器系统支持等场景, Pentagon 希望获得无限制访问权限。
Anthropic 立场:
作为 Claude AI 的开发者,Anthropic 坚持其使用指南的伦理边界,明确禁止模型被用于:
- 促进暴力或伤害
- 开发武器系统
- 大规模监视美国公民
- 完全自主致命武器(lethal autonomous weapons)
尽管 Anthropic 愿在部分国防应用上合作,但涉及上述红线时寸步不让。
谈判僵局:数月拉锯无果
据报道,双方合同谈判已持续数月之久,但 Anthropic 始终未同意五角大楼的条款。知情人士透露,五角大楼官员已对谈判进展失去耐心,正在评估终止伙伴关系的可能性,并考虑转向其他 AI 提供商。
值得注意的是,这场争端暴露了政策与实践之间的灰色地带。尽管 Anthropic 设置了严格限制,但华尔街日报披露,五角大楼近期在委内瑞拉针对马杜罗的突袭行动中,已使用 Claude 进行情报支持。这一事实既证明了 Claude 的军事价值,也凸显了使用限制执行的复杂性。
行业影响:AI 军事化走向十字路口
五角大楼与 Anthropic 的争端具有深远影响:
对 Anthropic:
若合作破裂,公司可能失去重要的政府收入来源,但也可能因坚持伦理立场赢得公众和开发者的信任。如何平衡商业利益与价值观,将成为关键考验。
对美国国防 AI 生态:
五角大楼或将加速转向政策更灵活的竞争对手(如 OpenAI)。据 mlq.ai 分析,这一决定可能重塑国防部 AI 供应商格局。
对 AI 治理:
事件引发更广泛的行业讨论——当军事需求与技术伦理冲突时,平衡点在哪里?AI 公司是否有权拒绝政府客户?这些问题尚无定论,但正变得越来越紧迫。
全球视角:AI 军备竞赛的伦理困境
五角大楼并非唯一面临这一困境的机构。全球各国军队都在加速 AI 部署,但技术公司的伦理底线参差不齐。Anthropic 的强硬立场可能为行业树立先例,也可能被竞争对手的"灵活政策"所边缘化。
随着 AI 能力持续跃进,军事应用与伦理约束之间的张力只会加剧。五角大楼与 Anthropic 的这场博弈,或许只是更大风暴的前奏。
0
好文章,需要你的鼓励
