美国以“供应链风险”指定威胁 Anthropic。OpenAI 签署新的 War Department 合同
Source: Slashdot
背景
上周五,所有美国联邦机构被命令立即停止使用 Anthropic 的 AI 技术,因为在合同谈判中,Anthropic 要求对大规模国内监视和全自主武器设限,导致谈判陷入僵局。
战争部长 Pete Hegseth 的声明
在 X(原 Twitter)上向其 110 万粉丝发布的帖子中,战争部长 Pete Hegseth 批评 Anthropic,称该公司的立场是“一堂傲慢与背叛的典范课程”,并且是“一部关于如何不与美国政府或五角大楼做生意的教科书案例”。
他表示,战争部必须对 Anthropic 的模型拥有完整、无限制的访问权,以用于共和国防御的所有合法目的,并宣布将 Anthropic 定性为国家安全供应链风险。自即日起,任何与美国军方有业务往来的承包商、供应商或合作伙伴均不得与 Anthropic 开展任何商业活动。
Anthropic 的回应
Anthropic 回应称,“战争部的任何恐吓或惩罚都不会改变我们的立场”,并将通过法院挑战供应链风险的定性。
Anthropic 声明的要点:
- 将 Anthropic 定性为供应链风险是前所未有的,历史上此类定性仅针对美国的对手。
- Anthropic 是首家在美国政府机密网络中部署模型的前沿 AI 公司,自 2024 年 6 月起为作战人员提供支持。
- 公司认为此定性在法律上站不住脚,并会为任何与政府谈判的美国公司树立危险先例。
- Anthropic 不认为当今的前沿 AI 模型足够可靠,能够用于全自主武器,理由是会对作战人员和平民构成风险。
- 公司同样反对对美国人的大规模国内监视,认为这侵犯了基本权利。
OpenAI 与战争部的协议
同一天,OpenAI 宣布已与战争部达成协议,在五角大楼的机密网络中部署其模型。
OpenAI CEO Sam Altman 强调,该协议保留了 OpenAI 对其产品用于国内大规模监视的禁令,并要求对使用武力(包括自主武器系统)时实行“人为责任”。他补充说,战争部认同这些原则,并将在法律和政策中体现,同时将实施技术防护措施,确保模型行为符合约定标准。
前景
OpenAI 正在请求战争部向所有 AI 公司提供相同的条款,倡导降级紧张局势并达成合理协议。该公司重申其服务人类的承诺,同时承认世界的复杂性和潜在危险。