美国对伊朗的攻击使用了Anthropic AI

发布: (2026年3月5日 GMT+8 14:36)
4 分钟阅读

Source: Byline Network

Claude 的军事使用

尽管 Anthropic 反对其 AI 模型的无限制军事使用,但据称其大型语言模型(LLM)“Claude”在美军对伊朗的攻击中发挥了关键作用。特朗普政府曾因与 Anthropic 的冲突而在行政内部全面禁止使用 Claude,但仅仅数小时后,美军就将 Claude 投入实战。

多家外媒报道指出,美军在伊朗空袭的首日 24 小时内,为打击约 1,000 余个目标,使用了 Palantir 的 “Maven 智能系统”。该系统实时分析卫星、监视、情报数据,提供打击目标建议、精确坐标计算、目标优先级决定等功能。

问题在于该系统中嵌入了 Anthropic 的 Claude。过去一年,军方一直在将 Maven 与 Claude 的结合发展为全军日常作战工具。据悉,在本次伊朗行动中,两套系统的结合使原本需要数周才能完成的作战计划得以实时转化。

此前,Anthropic 与国防部因 Claude 的军事使用范围产生冲突。Anthropic 拒绝将其技术用于本国公民监视和自主武器系统后,特朗普总统下令立即停止联邦机构使用 Claude,国防部则将 Anthropic 列为“国家安全供应链风险”。这是美国企业首次被如此对待。

然而,国防部并未立即停止使用 Claude。由于 Claude 已在全军范围内被广泛使用,且没有可替代方案,军方表示将在替代品准备就绪之前,动用政府权力继续使用该技术。

AI 战争伦理争论浮出水面

有趣的是,Anthropic 反对的并不是“战争本身”。它始终拒绝的只有两件事:对本国公民的大规模监视和完全自主致命武器。将 AI 用于目标选择和优先级排序并不在 Anthropic 自己划定的红线之内。即便如此,Anthropic 的严格政策也未能阻止 Claude 在伊朗空袭中的使用。

尽管如此,对在战争中使用 AI 的批评仍然不少。谷歌、OpenAI 等大型科技公司员工相继发出公开信,要求对军事 AI 使用设定明确界限。题为 “We Will Not Be Divided” 的公开信约有 100 名 OpenAI 员工和近 800 名谷歌员工参与,呼吁拒绝将 AI 用于自主致命武器和本国公民监视。

但 OpenAI 为填补 Anthropic 的空缺,与国防部签订了合同;埃隆·马斯克的 xAI 也据称与军方专用机密计算网络达成了合作协议。

有观点警告称,如果不能在战争中使用 AI,可能会让中国受益。前 MIT 物理学家、未来生命研究所负责人 Max Tegmark 表示:“企业的自我监管行不通。所有公司都有自己的红线,但最终都会被突破。”

심재석

0 浏览
Back to Blog

相关文章

阅读更多 »

在大作之间的存在感…新作放置类游戏引人注目

在3月,随着预计将震动国内游戏市场格局的大作游戏即将发布,Idle游戏也将陆续亮相。Idle游戏虽与大型新作体量不同,但凭借简洁的结构可以针对休闲用户群体。它们可以以相对较低的开发成本获取收益,并且有助于多元化portfolio……