美国军方继续使用Claude,防务客户大规模撤离
•12 阅读•3分钟•视野
ClaudeAnthropic美国国防部PalantirLockheed Martin
Russell Brandom••12 阅读•3分钟•视野

背景概述
美国与伊朗的空中冲突升级后,国防部紧急调用AI系统协助目标定位。Anthropic的Claude——一款以对话和指令理解见长的大语言模型,成为了美军在实战中使用的关键工具。与此同时,前总统特朗普曾下令民用机构停止使用Anthropic产品,并给国防部六个月的宽限期。该指令在实际执行前,冲突已迫使美国继续使用Claude完成实时目标优先级排序。
实际使用细节
- 系统集成:Claude 与 Palantir 的 Maven 平台深度融合,形成“Claude‑Maven”复合系统。
- 功能表现:系统在数百个潜在目标中生成坐标,依据战略价值进行排序,帮助指挥官快速决策。
- 官方描述:华盛顿邮报将其定位为“实时目标定位与优先级划分”。
“Claude‑Maven 能在几秒钟内提供精确坐标,并给出每个目标的作战价值评估,”该报道援引 Pentagon 内部消息称。
防务客户的撤离潮
- Lockheed Martin:据路透社报道,洛克希德·马丁本周已启动替换计划,转向自研或其他供应商模型。
- 其他承包商:J2 Ventures 的管理合伙人透露,其投资的十家防务初创公司中已有十家停止使用Claude,并在积极寻找替代方案。
- 供应链风险:国防部长佩特·赫格塞斯(Pete Hegseth)已承诺将Anthropic列为供应链风险,但截至目前尚未发布正式禁令,导致法律层面的不确定性。
政策争议与法律风险
- 特朗普指令的滞后:指令要求在六个月内完成撤出,但实际操作受限于战争紧迫性,导致政策与作战需求冲突。
- 供应链风险认定的后续:若赫格塞斯正式将Anthropic列入禁用名单,防务企业可能面临违约诉讼或合同终止风险。
- 数据安全与伦理:军方使用商业 LLM 进行实时目标选择,引发对模型透明度、误判率以及潜在偏见的担忧。
前景展望
- 短期:在冲突结束前,Claude 仍可能继续在有限范围内被使用,尤其是在与 Palantir Maven 的深度集成尚未拆除的系统中。
- 中期:随着供应链风险认定的落实,防务行业预计将加速自研模型或转向如Google Gemini、Microsoft Azure OpenAI Service 等更受政府青睐的方案。
- 长期:此事凸显了军用 AI 与商业 AI 的监管鸿沟,或促使美国政府制定更明确的军民两用模型使用准则,防止类似政策真空再次出现。
结语
Anthropic 的 Claude 在一次真实战场中的应用,暴露了AI技术在国家安全领域的双刃剑属性。随着防务企业大规模撤离,行业格局正悄然重塑,未来谁能在政策合规与技术领先之间找到平衡,将决定下一代军用生成式AI的主导者。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。