Anthropic指控中国AI实验室盗用Claude引发芯片出口争议

17 阅读3分钟视野
Anthropic指控中国AI实验室盗用Claude引发芯片出口争议

事件概述

Anthropic在官方博客中称,三家中国AI实验室——DeepSeek、月之暗面(Moonshot AI)和MiniMax——通过创建超过24,000个伪造账号,对其Claude模型实施了大规模“蒸馏”攻击。仅在过去一年,这些账号共产生约1.6亿次交互,旨在提取Claude在代理推理、工具使用和代码生成等核心能力。

细节披露

  • DeepSeek:约150,000次交互,聚焦基础逻辑、对齐安全以及对敏感政策查询的规避。
  • 月之暗面:约3.4百万次交互,针对代理推理、工具链使用、代码与数据分析以及计算机视觉任务。
  • MiniMax:约13百万次交互,重点在代理式编码、工具编排以及对Claude最新版本的功能抽取。

“我们观察到这些实验室在Claude发布后不久即将近半的流量重定向至自己的系统,以获取最新能力。” — Anthropic官方声明

蒸馏攻击的技术路径

蒸馏(Distillation)本是模型压缩的常规手段,但在竞争环境下,攻击者可以利用大量查询与响应数据,逆向学习目标模型的行为模式,从而在不直接获取原始权重的情况下复制其功能。Anthropic指出,这种“大规模蒸馏”需要高性能算力,暗示了受限的AI芯片出口政策对攻击的影响。

芯片出口争论的背景

美国近期在特朗普政府的指示下放宽了对NVIDIA H200等高端AI芯片的出口限制。政策制定者正权衡两大因素:

  1. 抑制技术外流:限制先进芯片可以削弱对大规模蒸馏的算力支撑。
  2. 维护产业竞争力:过度限制可能削弱美国企业在全球AI供应链中的领先地位。

Anthropic认为,若不对高性能芯片实施更严格的审查,类似的盗取行为将进一步加剧中国AI模型的快速追赶。

安全与监管担忧

安全专家Dmitri Alperovitch(Silverado Policy Accelerator)在接受TechCrunch采访时表示:“中国AI模型的快速进步部分来源于对美国前沿模型的盗取,这已经是事实。若继续向这些实体供芯片,只会加速风险的累积。”

Anthropic亦强调,未经授权的蒸馏模型缺乏安全防护,可能被用于生物武器研发、恶意网络攻击或大规模监控等国家安全敏感场景。

业界呼吁的协同防御

Anthropic呼吁AI行业、云服务提供商以及监管机构形成统一防线:

  • 加强模型交互日志审计,识别异常访问模式;
  • 在模型发布前嵌入防蒸馏技术,如水印或对抗训练;
  • 对涉及高风险算力的出口实施更细粒度的审查。

结语

此次指控将AI技术竞争与地缘政治紧密结合,凸显了在全球算力争夺战中,技术防护与政策监管同等重要。随着美国芯片出口政策的继续演进,业界需要在创新速度与安全合规之间寻找新的平衡点。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。