五角大楼因 AI 军事争议将 Anthropic 列为供应链风险
Source: The Hacker News
Ravie Lakshmanan
2026年2月28日 – 国家安全 / 人工智能
五角大楼将 Anthropic 定为供应链风险
[Image: 五角大楼指定 Anthropic 为供应链风险]
Anthropic 在美国国防部长 Pete Hegseth 指示五角大楼将该 AI 初创公司标记为“供应链风险”后,于周五作出回应。
“此举是在数月谈判后采取的,谈判因我们请求的两项对合法使用我们的 AI 模型 Claude 的例外而陷入僵局:对美国人的大规模国内监视以及全自主武器,”公司表示。
Source
“无论战争部施加何种恐吓或惩罚,都不会改变我们在大规模国内监视或全自主武器问题上的立场。”
政治与军事指令
在 Truth Social 上的帖子中,美国总统 Donald Trump 宣布命令所有联邦机构在六个月内逐步淘汰 Anthropic 技术。随后,Hegseth 在 X 上的帖子要求所有与美国军方有业务往来的承包商、供应商和合作伙伴立即停止任何“与 Anthropic 的商业活动”。
“鉴于总统指示联邦政府停止使用 Anthropic 的所有技术,我指示战争部将 Anthropic 列为对国家安全的供应链风险,” Hegseth 写道。
Source
Anthropic的立场
Anthropic认为其合同不应促进大规模国内监视或自主武器的开发。
“我们支持在合法的外国情报和反情报任务中使用 AI,”Anthropic指出。“但将这些系统用于大规模国内监视与民主价值观不相容。AI 驱动的大规模监视对我们的基本自由构成严重且新颖的风险。”
该公司还批评国防部的立场,即只与允许“任何合法使用”技术的 AI 公司合作,去除可能存在的保障措施,作为“AI‑first”作战力量的一部分。
“多样性、公平性和包容性以及社会意识形态在国防部没有立足之地,因此我们必须不使用包含意识形态‘调优’的 AI 模型,这会干扰它们对用户提示提供客观真实回答的能力,”五角大楼备忘录写道。
“部门还必须使用不受使用政策限制的模型,以免限制合法的军事应用。”
Anthropic将该指定描述为法律上站不住脚,警告这将为任何与政府谈判的美国公司树立危险先例。该公司指出,根据10 U.S.C. § 3252的供应链风险指定只能扩展到在国防部合同中使用Claude,不能影响Claude对其他客户的使用。
行业反应
[Image: ThreatLocker]
数百名 Google 和 OpenAI 的员工签署了一封公开信,敦促他们的公司在 Anthropic 与五角大楼就类似 Claude 的 AI 工具的军事应用的冲突中站在 Anthropic 一边。
公开信
OpenAI的立场
这场僵局恰逢 OpenAI CEO Sam Altman 表示,OpenAI 已与美国国防部(DoD)达成协议,在一个机密网络中部署其模型,并请求国防部将这些条款扩展至所有 AI 公司。
“AI 安全和广泛分配利益是我们使命的核心。我们最重要的两条安全原则是禁止国内大规模监视以及对使用武力(包括自主武器系统)的人的责任,”Altman 说。
Source
觉得这篇文章有趣吗? 关注我们:
[LinkedIn] 阅读我们发布的更多独家内容。