我为何撰写《多代理 AI 对 AI 系统中的 Zero Trust 架构的 11 项控制》
Source: Dev.to
大多数安全模型从未针对相互通信的自治系统设计。它们假设有人类登录、会话、边界,以及某个时刻有人完成了身份验证。一旦引入持续运行、无间断决策并以机器速度与其他代理交互的自治代理,这种逻辑很快就会失效。
我在处理安全架构、AI 系统和零信任理论时反复遇到这个问题。控制措施本来是存在的,但它们分散在各处——身份信息在一个地方,授权在另一个地方,速率限制在别处,基于时间的控制往往是事后才考虑,甚至根本不存在。
让我困扰的不是缺少这些想法,而是没有人把它们组合成一个从一开始就假设自治的系统。这也是我写这本书的原因。
核心问题
AI‑to‑AI 通信消除了人类的停顿。没有登录界面,没有你确定吗的提示,也没有自然的延迟让人能够捕捉错误。一旦代理被信任,它就会行动。如果这种信任过于宽泛、持续时间过长或过于静态,系统会悄然且彻底地失败。
大多数零信任讨论只停留在身份和策略层面,这对自治环境来说远远不够。你还需要控制何时允许操作、多频率如何、分歧如何解决、以及信任随时间如何衰减。系统必须把故障、漂移和妥协视为正常运行条件。
本书的实际作用
**《多代理 AI‑to‑AI 系统中零信任架构的 11 项控制》**不是一本理论书,而是一个控制框架。每章聚焦于一个单独的控制点,回答特定的安全问题,例如:
- 这个代理到底是谁?
- 它现在被允许做什么?
- 该权限应存在多长时间?
- 如果它开始表现异常会怎样?
- 系统如何在没有人工干预的情况下减缓或阻止损害?
这些控制被设计成可以叠加使用:
- 单独的身份不可信。
- 单独的授权不可信。
- 单独的时间不可信。
只有当多个控制点达成一致时,系统才会前进。如果某个控制失效,其他控制应当捕获并补救。
为什么现在分享
我正在为本书的发布做准备,并公开分享章节摘录和想法,以对概念进行压力测试。如果这些想法与你产生共鸣,太好了;如果你持不同意见,那更好。自治系统已经出现,假装传统安全模型能够自行伸展以适应它们是痴心妄想。
本书之所以出现,是因为我找不到任何把这些控制作为一个整体系统而不是孤立最佳实践来对待的资料。
接下来会怎样
在接下来的几周里,我会发布简短的随笔和摘录,拆解各个控制点、失效模式以及用于保护代理间通信的设计模式。如果你正在使用 AI 系统、自动化或分布式服务,你会立刻认出这些问题。如果你正在构建能够自我对话的系统,你可能已经明白这为何重要。
预售将于 2026 年 1 月 15 日上线,正式发行日期为 2026 年 1 月 31 日。敬请在亚马逊上关注。