美国军方仍在使用 Claude——但国防科技客户正纷纷离开

发布: (2026年3月5日 GMT+8 01:20)
4 分钟阅读
原文: TechCrunch

Source: TechCrunch

2026年3月1日,一枚导弹袭击德黑兰一栋建筑后,烟雾柱升起。
图片来源: Atta Kenare/AFP / Getty Images

上午 9:20 PST · 2026年3月4日

背景

与国防部的Anthropic 争议的后续使该公司陷入尴尬境地——在美伊冲突中仍被积极使用,同时又在与众多国防工业客户脱钩。

相互冲突的美国政府指令进一步加剧了混乱。特朗普总统指示民用机构停止使用 Anthropic 产品,但又给 Anthropic 六个月的时间来结束与国防部的合作。次日,美国和以色列对德黑兰发动突袭,冲突持续升级,在特朗普的指令得以完全执行之前就已经展开。

冲突中的当前使用

在美国继续对伊朗进行空中打击的过程中,Anthropic 的模型被用于目标决策。尽管国防部长皮特·赫格塞斯(Pete Hegseth)已承诺将该公司列为供应链风险,但尚未采取正式措施,因此目前没有法律障碍阻止使用该系统。

《华盛顿邮报》周三的一篇文章披露了 Anthropic 系统与 Palantir 的 Maven 平台共同使用的最新细节。该报称,五角大楼负责策划袭击的官员使用这些系统来:

  • 提出数百个目标建议
  • 提供精确的坐标位置
  • 根据重要性对目标进行优先级排序

文章将此功能描述为“实时目标定位与目标优先级划分”。

行业回应

许多国防工业公司已经开始用竞争对手的模型取代 Anthropic 的模型:

  • 路透社报道,洛克希德·马丁及其他承包商本周已开始更换 Anthropic 的模型。
  • J2 Ventures 的一位管理合伙人在接受 CNBC 采访时表示,他的 10 家投资组合公司“已经停止在国防用例中使用 Claude,并正在积极寻找其他服务进行替换”。

未解之问

最大未解的问题是赫格塞斯是否会真正落实供应链风险的指定,这可能会引发激烈的法律争斗。与此同时,作为领先的 AI 实验室之一,其模型仍在活跃的战区被使用,但公司正被迅速从军事技术中剥离。

0 浏览
Back to Blog

相关文章

阅读更多 »