Anthropic首席执行官坚决抵制五角大楼无限制AI访问 要求维护民主价值
•14 阅读•3分钟•视野
ClaudeAnthropicPentagonDefense Production Act
Rebecca Bellan••14 阅读•3分钟•视野

背景
2026年2月26日,Anthropic的创始人兼CEO Dario Amodei在一封公开声明中透露,五角大楼正以“供应链风险”与《国防生产法》(DPA)两种手段逼迫公司向军方提供其前沿大模型Claude的无限制使用权。Anthropic目前是唯一已具备对军方可直接交付的前沿模型的美国实验室。
五角大楼的要求
- 全方位访问:国防部希望在所有合法用途下,无需Anthropic批准即可调用Claude。
- 时间节点:截至2026年2月27日星期五下午5:01,Anthropic必须给出书面回应。
- 施压手段:
- 将Anthropic列为“供应链风险”,等同于外部敌对实体。
- 依据《国防生产法》强制公司优先满足国防需求。
Anthropic的回应
Amodei在声明中指出,
- 道德底线:公司无法在良心上同意为“大规模监视美国公民”和“全自动无人武器”提供技术支持。
- 技术限制:即便在法律层面允许,这类极端使用场景也超出现有AI安全与可靠性的边界。
- 双重威胁:一方面被贴上安全风险标签,另一方面却被宣称其模型对国家安全至关重要,形成自相矛盾。
- 后备方案:若国防部坚持,Anthropic愿意协助平稳交接给其他供应商,避免军方计划受阻。
行业与政策影响
- 前沿模型的军用化风险:Anthropic的立场为业界提供了一个审慎的参考点,提醒其他大模型实验室在面对政府强制使用时需评估伦理与安全边界。
- 美国政府的政策走向:近期对AI供应链的监管趋严,DPA的使用表明政府正尝试将AI纳入传统国防生产体系。
- 竞争格局:报道提及xAI正准备提供可供军方使用的模型,暗示Anthropic的独占地位可能被快速复制。
展望
- 监管层面的可能演进:国会可能出台更明确的AI军用法规,要求企业在技术交付前进行伦理审查。
- 企业策略:Anthropic或将加快对模型安全性的研发,以在符合伦理前提的前提下争取有限的军方合作。
- 行业共识:此事可能促使AI行业形成统一的“军用AI伦理准则”,以平衡国家安全与民主价值的冲突。
“我们愿意继续为部队服务,但必须在两项安全保障到位的前提下。”——Dario Amodei
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。