Anthropic CEO指责OpenAI军方合同赤裸谎言,公开安全争议
•2 阅读•3分钟•视野
OpenAIAnthropic美国国防部安全治理
Amanda Silberling••2 阅读•3分钟•视野

事件背景
2026年3月,Anthropic与美国国防部(DoD)就一项价值约2亿美元的AI合作谈判破裂。Anthropic坚持要求合同中明确禁止技术用于国内大规模监控或自主武器系统。DoD未能满足该红线后,转而与OpenAI签署新协议。OpenAI在博客中表示,合同仅限制“非法用途”,并承诺遵守“所有合法使用”原则。
争议要点
- 安全红线:Anthropic要求DoD承诺不将AI用于国内监控和自主武器;OpenAI的合同仅排除非法用途。
- 信息披露差异:Anthropic指责OpenAI在内部信件中将自身包装为“和平调解者”,实际却向员工隐瞒合同细节。
- 员工情绪:Amodei在给内部员工的备忘录中写道,OpenAI的说辞是“赤裸谎言”,并警告此举可能削弱员工对公司安全承诺的信任。
双方立场
- Anthropic:坚持技术伦理,认为AI不应被用于可能侵犯公民权利的场景。放弃合同是对DoD“安全剧院”策略的回应。
- OpenAI:强调合同中已加入对滥用的防护措施,声称在合法框架内提供技术,以满足国防需求,同时保持研发的开放性。
市场与舆论反响
- 用户行为:TechCrunch数据显示,OpenAI与DoD签约后,ChatGPT的卸载率在短期内飙升约295%。
- 行业声音:多位AI伦理学者对OpenAI的做法提出质疑,认为缺乏明确的使用限制可能导致技术滥用。
- 竞争格局:Anthropic此举被视为在AI安全赛道上与OpenAI拉开差距,强化其在“安全第一”定位上的品牌形象。
影响展望
- 监管压力上升:美国国会可能针对AI在国防领域的使用展开听证,推动更严格的合规要求。
- 企业合作模式调整:AI公司在与政府签约时或将更倾向于在合同中加入细化的伦理条款,以防止类似争议。
- 技术路线分化:Anthropic可能加速开发专注于安全和可控性的模型,OpenAI则继续在规模和通用能力上保持领先。
“我们不想成为安全剧院的配角,而是要真正阻止技术被用于危害公共利益的场景。”——达里奥·阿莫迪(Anthropic CEO)
整体来看,此次军方AI合同争议不仅暴露了行业内部对安全治理的分歧,也预示着未来AI技术在国防领域的商业化将面临更严苛的伦理审查。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。