Anthropic CEO内部备忘抨击OpenAI与五角大楼合同为欺骗性谎言
•0 阅读•3分钟•视野
OpenAI生成式AIAnthropicPentagon安全治理
•0 阅读•3分钟•视野
事件背景
近日,Anthropic内部备忘在员工间泄露,全文由CEO达里奥·阿莫迪撰写。备忘中指出,OpenAI近期与美国国防部签署的合作协议声称模型仅用于“合法用途”,并配备“安全层”以阻止不当应用。然而,阿莫迪认为该安全层大多是“安全戏码”,实际效果不足20%。
关键争议点
- 安全层的真实性:备忘称,OpenAI与Palantir提供的分类器或监控机制并未真正限制模型行为,更多是安抚监管方的表面措施。
- 模型监控的可行性:文中提到,前线部署工程师(FDE)对模型使用情况的审查在军用环境中只能覆盖极小比例,且对抗 jailbreak 的能力有限。
- 合同细节差异:Anthropic在谈判中曾尝试加入与OpenAI相同的安全条款,但被DoD拒绝。对方甚至在最后阶段要求删除关于“大规模获取数据分析”的关键句子,引发公司高度警惕。
- 政策误导:备忘指出,DoD宣称“人机在环是法律要求”,但实际政策可能随防部高层(如Pete Hegseth)单方面调整,导致监管空洞。
行业影响
此内部泄露在业界引发热议。多家媒体(包括《金融时报》)已报道Anthropic正与DoD重新谈判,以确保模型不会被用于国内大规模监控或致命自主武器。若谈判破裂,DoD可能将Anthropic列入供应链风险名单,迫使其在军工领域的业务受限。与此同时,OpenAI的合同条款被指与Anthropic的安全红线相冲突,可能导致两家公司在军方市场的竞争格局进一步分化。
未来走向
- 监管审查升级:美国国会及相关监管机构可能对AI模型在军用领域的使用设立更严格的合规要求,尤其是关于数据来源和人机在环的透明度。
- 企业自律加强:面对内部舆论压力,Anthropic可能加大对模型安全层的研发投入,推出更可审计的使用监控工具。
- 行业合作模式调整:OpenAI若继续坚持“全合法使用”模式,可能面临更多政府和合作伙伴的信任危机;相对而言,Anthropic若能在合同中坚持明确的红线,有望获得更高的合规声誉。
“我们对OpenAI的安全层持极度怀疑态度,几乎是安全戏码。”——达里奥·阿莫迪在备忘中如是写道。
整体来看,Anthropic的内部批评不仅暴露了当前AI军用合作的监管缺口,也提醒整个行业在模型安全治理上必须从形式走向实质。未来,政策制定者、企业与军方的协同将决定生成式AI在国防领域的真正边界。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。