Microsoft、Google、Amazon保证Claude仍可供非国防客户使用

1 阅读3分钟视野
Microsoft、Google、Amazon保证Claude仍可供非国防客户使用

背景概述

美国国防部(DoD)近日将AI初创公司Anthropic列为供应链风险,理由是其拒绝向军方提供无限制的技术访问,尤其是涉及大规模监控和全自动武器的场景。该决定意味着Pentagon将在未来无法直接使用Anthropic的Claude模型,也要求与其合作的防务承包商进行合规认证。

主要声明

  • 微软:公司发言人通过邮件表示,已对该风险认定进行法律评估,确认Claude在M365、GitHub、Microsoft AI Foundry等平台仍可供除国防部之外的所有客户使用。微软将继续在非防务项目上与Anthropic合作。
  • 谷歌:Google Cloud官方回应称,决定不影响Claude在其云服务中的可用性,非防务工作负载仍可正常调用模型。
  • 亚马逊 AWS:AWS 同样确认,客户与合作伙伴在非防务场景下继续使用Claude,无需额外合规步骤。
  • Anthropic CEO Dario Amodei:在声明中强调,风险认定仅针对直接向国防部提供的合同,不会限制Claude在其他行业的使用,也不会影响与非防务客户的业务关系。

影响分析

  1. 企业用户安心:多数使用Claude进行文档生成、代码补全和客服机器人的企业无需担心服务中断,能够继续在Azure、Google Cloud 或 AWS 上部署现有工作流。
  2. 供应链风险的边界:此案例显示美国政府对AI供应链的监管正趋向细分化,仅对涉及军用或大规模监控的应用设限,而非全面封禁。
  3. 竞争格局:OpenAI、Meta 等竞争对手的模型在同类业务中未受此类限制,短期内可能吸引对合规要求更高的防务客户,但Claude在非防务市场的领先优势仍将保持。
  4. 法律与合规成本:使用Claude的企业若与国防部有任何业务往来,需要在合同层面进行风险评估并可能额外备案,这将推动企业内部AI治理体系的完善。

行业回应

“我们已经审查了DoD的决定,并确认Claude的非防务服务不受影响。” — 微软发言人

“Google Cloud 将继续为客户提供Claude,帮助他们在生成式AI时代保持竞争力。” — 谷歌官方

“AWS 客户可以放心使用Claude,除非直接为国防部提供服务。” — 亚马逊云计算部门

业界分析师普遍认为,此举是大厂在AI供应链争夺战中的一次风险缓冲,既满足政府监管需求,又不削弱对企业客户的吸引力。未来,随着更多AI模型被纳入供应链审查名单,类似的合规声明可能会频繁出现,企业需要提前布局合规与技术双轨策略。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。