五角大楼供应商切断暴露了大多数企业从未构建的 AI 依赖图谱
Source: VentureBeat
联邦指令与企业现实
联邦指令要求所有美国政府机构停止使用 Anthropic 技术,并设定了 六个月的淘汰窗口。该时间表假设各机构已经了解 Anthropic 模型在其工作流中的位置——而实际上大多数机构今天并不知道。
大多数企业也面临同样的问题。安全负责人认为已经批准的内容与实际在生产环境中运行的情况之间的差距,往往比人们意识到的要大得多。
为什么 AI 供应商依赖关系重要
- 级联效应 – 依赖关系并不止于你签署的合同;它们会通过你的供应商、供应商的供应商,以及你团队在未经过采购审查就采用的 SaaS 平台传播。
- 缺乏映射 – 大多数企业从未对这条链路进行过映射。
Source: …
没有人拥有的库存运行情况
- 调查数据
- 2026年1月 Panorays 调查,对 200 位美国 CISO 进行调查:只有 15 % 能够全面了解其软件供应链(比一年前的 3 % 有所提升)。
- BlackFog 调查,针对 2,000 名在员工超过 500 人的公司工作的员工:49 % 在未获雇主批准的情况下采用了 AI 工具;69 % 的高管成员表示他们对此并不介意。
这些未记录的 AI 供应商依赖关系在被迫迁移之前,对安全团队来说是不可见的,直到它们成为每个人的问题。
“如果你让一个典型的企业绘制包含二阶和三阶 AI 调用的依赖图,他们只能在压力下从头开始构建,”
— Merritt Baer,Enkrypt AI 首席安全官(前 AWS 副 CISO)
“大多数安全计划是为静态资产构建的。AI 是动态的、组合性的,并且日益间接。”
当供应商关系一夜之间终止
- 该指令导致的强制迁移是联邦政府在 AI 供应商方面前所未有的尝试。
- 任何在单一 AI 供应商上运行关键工作流的企业,如果该供应商消失,都将面临同样的数学计算。
Shadow AI 事件 现在占 所有泄露的 20 %,使平均泄露成本增加高达 $670 k(IBM 2025 数据泄露成本报告)。你无法为未盘点的基础设施执行迁移计划。
真实案例
- 你可能没有与 Anthropic 签订合同,但你的供应商可能有。
- 某 CRM 平台可能在其分析引擎中嵌入了 Claude。
- 某客户服务工具可能在处理每个工单时调用 Claude。
你并未为此风险签字,但你已经继承了它。当上游的供应商被切断时,影响会快速向下游蔓延。链条末端的企业往往在出现故障或收到合规信函后才发现这种依赖。
- Anthropic 报告称 美国前 10 大公司中有 8 家 使用 Claude。
- 这些公司供应链中的任何组织都有 间接的 Anthropic 曝露,无论是否签订了相关合同。
- 拥有数十亿美元军方合同的 AWS 和 Palantir 可能需要重新评估与 Anthropic 的商业关系,以维持五角大楼业务。
“模型并非可以互换。更换供应商会改变输出格式、延迟特性、安全过滤器以及幻觉表现。这意味着需要重新验证控制,而不仅仅是功能。” – Merritt Baer
Baer 概述了一个从 分诊与影响半径评估 开始,转向 行为漂移分析,最终到 凭证和集成更迭 的过程。
- “轮换密钥是容易的部分,” Baer 说。“解开硬编码依赖、供应商 SDK 假设以及代理工作流才是会导致系统崩溃的关键。”
您的日志未显示的依赖关系
一位高级国防官员在 Axios 报道中形容摆脱 Claude 的过程是 “巨大的麻烦事”。如果这是地球上资源最充足的安全体系内部的评估,那么企业 CISO 面临的问题就很直接:你的需要多长时间?
随 SaaS 采用而来的影子 IT 浪潮让安全团队认识到未经授权的技术风险。大多数团队通过部署 CASB、加强 SSO 并进行支出分析来应对——这些工具之所以有效,是因为威胁是可见的(新登录、新数据存储、新日志条目)。
AI 供应商的依赖关系不会留下这些痕迹。
“使用 SaaS 的影子 IT 在边缘是可见的,” Baer 说。“AI 依赖被嵌入到其他供应商的功能中,动态调用而非持久安装,行为非确定性且不透明。你往往不知道实际使用的是哪个模型或提供商。”
Source: …
周一早晨的四项行动
联邦指令并未制造 AI 供应链可视性问题——它只是将其暴露出来。
“不要‘盘点你的 AI’,因为那太抽象且太慢,”Baer 在接受 VentureBeat 采访时说。她建议 四个具体行动,安全负责人可以在 30 天 内完成。
1. 绘制执行路径,而非供应商列表
- 在 网关、代理或应用层 进行监控并记录:
- 哪些服务在调用模型?
- 调用的目标端点是哪些?
- 使用了什么数据分类?
- 你正在构建 实时使用图谱,而不是静态的供应商清单。
2. 确认你真正拥有的控制点
- 如果你唯一的控制点只在供应商边界,你已经输了。
- 在以下位置强制执行控制:
- 入口 —— 进入模型的数据。
- 出口 —— 下游允许的输出。
- 编排层 —— 代理和流水线运行的地方。
3. 对最关键的 AI 依赖执行 “终止测试”
- 选定你最关键的 AI 供应商。
- 在 预演环境 中模拟其移除。
- 关闭 API 密钥并监控 48 小时。
- 记录:
- 哪些功能中断。
- 哪些在悄然降级。
- 哪些错误未被你的事件响应手册覆盖。
此练习可以揭示隐藏的依赖关系。
4. 强制供应商披露子处理器和模型信息
- 要求你的 AI 供应商回答:
- 他们依赖哪些模型。
- 这些模型托管在哪里。
- 有哪些备份路径。
- 若他们无法提供此信息,你正面临必须缓解的 四方风险。
要点
联邦指令是一次警醒。通过绘制真实的执行路径、确保真正的控制点、对关键依赖进行压力测试,并要求供应商提供完整透明度,安全负责人可以将潜在危机转化为可管理的过渡。
“企业认为他们已经‘批准’了 AI 供应商,但他们实际上批准的是一个 接口,而不是底层系统,” Baer 在 VentureBeat 中说道。 “真正的依赖关系在更深一层或两层,而这些才是在压力下会失效的。”
针对 Anthropic 的指令是某个组织的 天气事件。每个企业最终都会面对自己的版本,无论触发因素是:
- 法规,
- 合同,
- 运营,或
- 地缘政治。
在风暴来临前 绘制了 AI 供应链图谱 的组织将能够恢复。未进行绘制的组织则会手忙脚乱。
行动步骤
- 映射您的 AI 供应商依赖关系,细化到子层级。
- 运行 kill test – 模拟关键供应商的突发失效。
- 强制披露 – 要求供应商透露其上游依赖关系。
- 给自己 30 天 的时间来弥补任何缺口。
下一次强制迁移不会提前六个月警告。
现在就提出问题,趁关系仍然稳定。等到截止点到来时,议价能力会转变,答案也会来得太晚。