OpenAI与美国政府签约引发争议 公司缺乏应对方案

7 阅读3分钟视野
OpenAI与美国政府签约引发争议 公司缺乏应对方案

背景

2026年3月,OpenAI宣布接手美国国防部原本授予Anthropic的合同。该合同涉及大规模数据收集、潜在的监控与自动化武器研发。奥特曼随即在X平台开启公开问答,试图以“民主进程”为框架解释公司决定。

合同争议

  • 合同内容:要求OpenAI提供可用于情报分析和目标识别的生成式模型,且需配合美国军方的安全审查。
  • Anthropic退出原因:该公司坚持在合同中加入对大规模监控和致命武器的限制条款,被国防部拒绝后选择退出。
  • OpenAI的立场:强调“遵守宪法”和“支持民主”,但未给出具体的技术或伦理防线。

业界与员工反应

  • 内部压力:OpenAI员工在内部讨论区呼吁设立明确的红线,担忧公司可能被卷入不受监管的军用AI项目。
  • 竞争对手态度:Anthropic被国防部副部长Hegseth标记为供应链风险,业界普遍担心此举会对整个AI供应链产生连锁反应。
  • 投资者视角:部分风险投资人担心政府合约会带来监管不确定性,可能影响后续融资节奏。

前景与挑战

  1. 治理体系缺位:OpenAI尚未建立跨部门的国防合作审查委员会,导致决策过程缺乏透明度。
  2. 政策法规真空:美国目前缺乏针对生成式AI在国防领域使用的专门立法,企业只能依赖内部伦理指南。
  3. 公众信任危机:在社交媒体上,用户对OpenAI可能参与“大规模监控”表现出强烈担忧,品牌声誉面临潜在损害。
  4. 行业分化:随着政府对AI公司的需求上升,像Palantir、Anduril等传统防务企业将获得先发优势,而快速成长的初创公司则需在合规与创新之间寻找平衡。

“即使国防部长最终收回威胁,对Anthropic造成的伤害已经完成。”——前特朗普官员Dean Ball 在行业内部邮件中如是写道。

OpenAI能否在短期内构建起符合国防部要求的合规框架,并在不牺牲核心价值观的前提下继续保持技术领先,将决定其在未来AI安全格局中的位置。

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。