美国军方仍在使用 Claude——但国防科技客户正纷纷离开
Source: TechCrunch

图片来源: Atta Kenare/AFP / Getty Images
上午 9:20 PST · 2026年3月4日
背景
与国防部的Anthropic 争议的后续使该公司陷入尴尬境地——在美伊冲突中仍被积极使用,同时又在与众多国防工业客户脱钩。
相互冲突的美国政府指令进一步加剧了混乱。特朗普总统指示民用机构停止使用 Anthropic 产品,但又给 Anthropic 六个月的时间来结束与国防部的合作。次日,美国和以色列对德黑兰发动突袭,冲突持续升级,在特朗普的指令得以完全执行之前就已经展开。
冲突中的当前使用
在美国继续对伊朗进行空中打击的过程中,Anthropic 的模型被用于目标决策。尽管国防部长皮特·赫格塞斯(Pete Hegseth)已承诺将该公司列为供应链风险,但尚未采取正式措施,因此目前没有法律障碍阻止使用该系统。
《华盛顿邮报》周三的一篇文章披露了 Anthropic 系统与 Palantir 的 Maven 平台共同使用的最新细节。该报称,五角大楼负责策划袭击的官员使用这些系统来:
- 提出数百个目标建议
- 提供精确的坐标位置
- 根据重要性对目标进行优先级排序
文章将此功能描述为“实时目标定位与目标优先级划分”。
行业回应
许多国防工业公司已经开始用竞争对手的模型取代 Anthropic 的模型:
- 路透社报道,洛克希德·马丁及其他承包商本周已开始更换 Anthropic 的模型。
- J2 Ventures 的一位管理合伙人在接受 CNBC 采访时表示,他的 10 家投资组合公司“已经停止在国防用例中使用 Claude,并正在积极寻找其他服务进行替换”。
未解之问
最大未解的问题是赫格塞斯是否会真正落实供应链风险的指定,这可能会引发激烈的法律争斗。与此同时,作为领先的 AI 实验室之一,其模型仍在活跃的战区被使用,但公司正被迅速从军事技术中剥离。