五角大楼将Anthropic列入供应链风险引发AI行业震荡
•5 阅读•3分钟•视野
OpenAIAnthropicPentagon供应链风险自主武器
Russell Brandom••5 阅读•3分钟•视野

事件概述
美国国防部于2026年2月27日正式将人工智能公司Anthropic列入“供应链风险”名单,依据是总统特朗普在Truth Social上的公开指令,要求所有联邦机构在六个月内停止使用Anthropic的AI产品。此举标志着政府在AI技术安全与伦理方面的监管力度显著升级。
关键人物与声明
- 特朗普总统(Truth Social):“我们不需要它,不想要它,也不会再与之合作。”
- 国防部长 Pete Hegseth(Twitter):“依据总统指令,立即将Anthropic列为供应链风险,任何与美国军方有业务往来的承包商不得与其开展商业活动。”
- Anthropic CEO Dario Amodei:坚持不为大规模国内监控和全自动武器提供模型,表示愿在两项安全红线仍在的前提下继续为军方服务。
- OpenAI CEO Sam Altman:在内部备忘录中表态支持Anthropic的红线,并宣布与国防部洽谈,保持相同的伦理限制。
影响与行业反响
- 供应链安全:美国政府首次以伦理红线为依据,将AI公司列入供应链风险,可能成为其他国家制定类似政策的参考。
- 竞争格局:在Anthropic被排除后,OpenAI迅速提出合作方案,承诺遵守相同限制,可能抢占国防部AI合同的市场份额。
- 业界声音:Google、Meta等大型AI公司对该决定保持沉默;部分业内人士警告,过度政治化可能抑制创新,却也提醒企业必须提前设定伦理底线。
后续进展
- 六个月淘汰期:国防部将监控各部门的使用情况,若未在期限内完成切换,将启动强制终止程序。
- 合同重新招标:预计在2026年下半年启动新一轮AI供应商遴选,重点考察模型的可解释性与安全控制。
- 法律诉讼风险:Anthropic已表示将评估是否对政府的决定提起行政诉讼,争取恢复商业合作资格。
此事件凸显AI技术在国家安全与伦理冲突中的复杂角色,也预示着未来政府与AI企业之间的合作将更加审慎且受监管约束。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。