美国国防部施压Anthropic放宽AI防护措施 引发供应链与安全争议
•19 阅读•3分钟•视野
AnthropicGrokPentagonDario Amodei
Rebecca Bellan••19 阅读•3分钟•视野

争议背景
美国国防部(Pentagon)近日向Anthropic首席执行官Dario Amodei发出严厉通牒,要求在本周五前解除对其前沿模型的使用限制。国防部表示,如果Anthropic继续坚持其安全政策,将把公司列为“供应链风险”,甚至可能依据《国防生产法》(DPA)强制公司为军方定制模型版本。DPA 曾在新冠疫情期间被用于动员汽车与医疗企业生产关键物资,此次在AI领域的适用标志着法律工具的显著扩展。
Anthropic的立场
Anthropic长期坚持不让模型用于大规模监控美国公民或完全自主武器系统。公司在声明中强调,安全与伦理是其核心原则,拒绝在未达成严格监管前提供 unrestricted access。
“我们不会在没有充分安全保障的情况下让技术被用于可能危害公众的场景,”Anthropic CEO Dario Amodei在会议后对媒体表示。
国防部的论点
Pentagon则认为,军方使用AI技术应受美国法律与宪法约束,而非私营公司的内部政策。国防部官员指出,AI 已成为国防关键能力,若缺乏可靠的供应链,将削弱美国的战略优势。
“我们需要确保关键技术不受单一企业的政策左右,”国防部负责人Pete Hegseth在会谈中强调。
潜在影响
- 供应链安全:如果Anthropic被标记为供应链风险,国防部可能会限制其在国防项目中的使用,迫使军方寻找替代方案。
- 行业监管走向:动用DPA 可能为未来政府在AI领域的干预树立先例,推动更严格的合规要求。
- 投资者信心:Dean Ball(美国创新基金会资深研究员)指出,此类争端会让“合理、负责的投资者”对美国的商业环境产生疑虑,可能影响AI企业的融资渠道。
业界反响
目前,除xAI的Grok 已被报道可在国防系统中使用外,尚无其他备选模型可满足国防部的 classified‑ready 要求。业界专家警告,单一供应商的局面若无法快速补位,将对美国国防的AI能力形成显著风险。
结语
这场围绕AI安全与国家安全的拉锯战凸显了政府与前沿AI实验室之间的利益冲突。若双方未能达成妥协,可能导致法律手段介入,进而重塑美国AI产业的监管格局。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。