填补Anthropic空缺的OpenAI因“机会主义”批评而修改合同
Source: Byline Network

背景
2月末,特朗普政府将Anthropic指定为“国家安全供应链风险”企业,争议随之爆发。Anthropic要求在合同中加入明确的保护条款,确保其AI模型不被用于对美国公民的大规模国内监视或在无人类控制的情况下自动决定攻击的自主武器,但国防部未接受,导致谈判破裂。
随后,OpenAI 与国防部签订了AI供应合同。该合同在特朗普总统指责Anthropic是“左派胡说八道”,并命令联邦机构停止合作的几小时后完成。
对OpenAI的舆论逆风
- 合同公布后,OpenAI内部立即出现反弹。多数员工签署了支持Anthropic立场的声明。
- 一名员工发布“我认为这没有价值”的言论,点击量达数十万。
- 在旧金山总部前,出现了“你要监视你的邻居吗?”、“美国公民能信任OpenAI吗?”等抗议标语,写在地面上。
- 与此相对,Anthropic办公室附近则出现了表达感激和支持的涂鸦。
- 应用下载排名也受到影响,Claude 超过 ChatGPT,登上苹果 App Store 免费应用榜首。
奥特曼(Sam Altman)出面收场
Sam Altman 在内部备忘录中公开于 X(Twitter)上表示,“本不该在星期五匆忙发布这份合同”。他直接联系国防部副部长,要求重新谈判,并对合同作出如下修改:
- 禁止故意使用AI对美国公民和居民进行国内监视。
- 限制在自主武器系统、社会信用系统等高风险自动化决策中的使用。
- 增加条款,“禁止通过商业获取的个人信息或可识别信息对美国公民进行追踪、监视、监控”。
即便合同已修改,仍有批评声音。因为“故意”一词可能仍留下对附带或偶发监视的容忍空间。此外,NSA 等国防部下属情报机构被排除在本合同适用范围之外,需要另行的合同修订程序。
Altman 召集全体员工会议,亲自平息内部不满,并强调“军方的作战决策不是公司可以介入的事务”。他在 X 上写道:“我深信民主程序和民选领袖的权威。AI 公司拥有比政府更大权力的世界令人担忧”,同时补充“同样担忧的是政府为大规模国内监视辩护的世界”。
拯救Anthropic?
Altman 为竞争对手 Anthropic 发声,反复强调 Anthropic 不应被列为“供应链风险”企业。他表示希望国防部向 Anthropic 提出与 OpenAI 相同的合同条件。
然而,美国国务院、财政部、联邦住房金融局等机构已宣布暂停使用 Anthropic 工具的计划。
结论
OpenAI 此次行动象征了硅谷科技公司在伦理与商业之间的两难。过去谷歌因参与国防部的“梅文计划”而在员工大规模抗议后撤出,也有相似之处。随着 AI 改变战争形态并快速成为国家控制手段,Altman 所主张的“决定应由政府作出”逻辑,是否能在公民、客户和员工中产生说服力,值得关注。