谷歌与OpenAI员工联名力挺Anthropic,抵制国防部AI武器化
•22 阅读•3分钟•视野
GoogleOpenAIAnthropic美国国防部
Amanda Silberling••22 阅读•3分钟•视野

事件概述
近日,来自谷歌和OpenAI的约360名员工在一封公开信中签名,要求两家公司支持Anthropic对美国国防部的立场。Anthropic已明确表示,其技术不应被用于大规模国内监控或全自动武器系统。信中呼吁“抛开公司间的竞争与恐惧”,共同维护这一红线。
背景与争议
Anthropic与美国国防部已有合作关系,但在近期的技术授权谈判中,国防部要求解除对模型使用的限制,包括可能的监控与致命武器场景。面对这一请求,Anthropic的CEO Dario Amodei在声明中坚持拒绝,并警告若屈服将面临“供应链风险”或《国防生产法》(DPA)的强制措施。
与此同时,OpenAI CEO Sam Altman在接受CNBC采访时表示,他个人并不认同国防部对AI公司的威胁。OpenAI官方也确认与Anthropic在此议题上保持一致的红线。谷歌深度学习部门的首席科学家 Jeff Dean 通过个人账号在X(原Twitter)上发表了类似观点,强调大规模监控违背美国宪法第四修正案。
员工公开信要点
- 坚持红线:明确要求谷歌和OpenAI拒绝向国防部提供可用于大规模监控或全自动武器的AI模型。
- 呼吁团结:强调“不要让公司之间的竞争被恐吓策略分裂”,要求两家公司在伦理立场上保持一致。
- 警示后果:指出若技术被滥用,将对公民自由和社会信任产生深远负面影响。
各方回应与潜在影响
- Anthropic:继续坚持不向军事用途提供模型的原则,表示即便面临DPA威胁也不会妥协。
- OpenAI:虽未正式回应公开信,但内部人士透露管理层对Anthropic的立场表示“同情”。
- 谷歌:DeepMind方面尚未给出官方声明,Jeff Dean 的个人发声暗示公司内部可能已有共识。
- 美国国防部:国防部长 Pete Hegseth 曾向Anthropic CEO 表示若不妥协将视其为“供应链风险”,但未公开说明对谷歌、OpenAI的具体要求。
此事可能对AI产业链产生多重影响:
- 政策监管:政府对AI技术的使用边界将受到业界自律力量的制约,或促使立法部门加速制定明确规范。
- 公司声誉:在伦理争议中站队的公司可能获得更高的公众信任,进而在商业合作中占据优势。
- 技术供应链:若国防部动用DPA强制供应,可能导致技术出口管制升级,影响跨国研发协作。
展望
随着AI能力的快速提升,军方对前沿模型的需求必然增长。业界内部的伦理共识与公开表达,如本次员工联名信,展示了技术公司对“AI武器化”风险的警惕。未来,如何在国家安全需求与公民自由之间找到平衡,将成为AI治理的核心议题,也可能催生新的行业自律组织或国际合作框架。
“大规模监控侵犯第四修正案,且易被政治滥用。” — Jeff Dean(2026年2月25日)
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。