Anthropic提起诉讼挑战国防部供应链风险标签 维护AI军用合作权益

1 阅读3分钟视野
Anthropic提起诉讼挑战国防部供应链风险标签 维护AI军用合作权益

背景

美国国防部(DoD)近期将Anthropic列入供应链风险名单,意味着该公司在与五角大楼及其承包商的合作上将受到限制。此举源于数周前的争议——国防部希望对AI系统拥有更广泛的访问权,而Anthropic则坚持其技术不用于大规模监控或全自动武器。

法律争议

  • 原告:Anthropic,CEO Dario Amodei 代表公司提起诉讼。
  • 被告:美国国防部,依据《国防供应链风险管理法》作出标签。
  • 核心争点:标签的适用范围是否过于宽泛,是否违反了“最小限制原则”。Amodei 指出,标签仅针对Claude在直接与国防部合同中的使用,而非其在其他商业客户中的部署。

“该标签的目的是保护政府,而非惩罚供应商。法律要求国防部长采用最不限制的手段来实现供应链安全。”——Amodei 在声明中说。

双方立场

  • Anthropic:坚持Claude不会被用于大规模监控或全自动武器,且公司已与DoD保持“建设性对话”。公司计划在法院争取撤销标签,并在必要时继续以象征性费用向国防部提供模型。
  • 国防部:认为AI技术对国家安全至关重要,需对所有潜在供应链风险进行严格审查。DoD 的声明强调,供应链风险标签是基于对技术可能被滥用的预防性评估。

行业影响

  1. AI企业监管风险上升:此案可能成为其他AI公司面对政府供应链审查时的判例,促使企业提前评估合规风险。
  2. 军用AI市场竞争格局:OpenAI 已与DoD 达成合作,Anthropic 的挑战若成功,可能为其在军用AI领域争取更多合同提供法律依据。
  3. 政策透明度呼声:业内人士呼吁政府在制定供应链风险标签时提供更明确的标准和申诉渠道,以避免“行政随意”。

前景展望

法院审理可能拖延数月,期间Anthropic 将继续向DoD 提供Claude,费用象征性。若判决对Anthropic 有利,预计将推动更细化的风险标签制度;若不利,其他AI公司可能被迫接受更广泛的政府监管。业界普遍认为,此次诉讼不仅是一次法律博弈,更是AI公司在国家安全与商业自由之间寻找平衡的关键节点。


本报道基于TechCrunch原文,已去除冗余广告信息,力求客观呈现事件全貌。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。