协议战争忽视了要点
Source: Dev.to
介绍
目前 AI 正在发生一些有趣的事。最大的参与者正争相定义 AI 代理之间——以及它们与我们之间——的交流方式。
- Anthropic 拥有 MCP。
- Google 拥有 A2A。
- OpenAI 拥有其 Agents SDK。
每个人都在构建协议。
但在我从事 AI 系统(包括多个已获专利的系统)九年的工作后,我一直注意到这些讨论中缺失的东西:人类。
Source: …
让我拆解一下实际发生的事情
MCP(模型上下文协议)
Anthropic 试图标准化 AI 模型共享上下文的方式。
在 2024 年 11 月 宣布,MCP 旨在作为一个开放协议,为 AI 助手与数据源和工具的连接创建一种通用方式。¹
MCP 解决的问题——当你将多个 AI 调用串联起来时,上下文会丢失。第二个模型不知道第一个模型在想什么。MCP 提供了一种结构化的方式来传递这些上下文。
MCP 做得好的地方
- 在不同模型之间使用标准化的上下文格式
- AI 组件之间的顺畅交接
- 跨不同 AI 提供商工作(不仅限于 Claude)
- 开放规范,任何人都可以实现
MCP 未解决的方面
- 当需要人工介入时会怎样?
- 人类的上下文如何被保留并传递?
- 谁来决定 AI 何时应该停止并请求帮助?
Google 的 A2A
关注自主代理之间的通信与协作方式。
在 2025 年 4 月 宣布,A2A 基于已有的标准如 HTTP 和 JSON‑RPC,定义了代理如何发现彼此的能力、协商任务以及在复杂工作流中协作。²
A2A 做得好的地方
- 跨供应商的多代理协同
- 能力发现与协商
- 在专门化代理之间进行任务委派
- 基于成熟的 Web 标准构建
A2A 未解决的方面
- 同样的缺口:人类在哪里?
- 当代理 A 将任务交给代理 B 时,如果应该由人类而不是代理 B 来处理怎么办?
- 如何审计那些本不打算被审计的决策?
OpenAI Agents SDK
面向生产环境的多代理系统构建框架。
在 2025 年 3 月 发布,它取代了实验性的 Swarm 框架,提供了更稳健的方案。³
它做得好的地方
- 清晰的开发者体验
- 对常见模式提供良好的默认设置
- 与 OpenAI 模型的紧密集成
- 生产就绪的工具链
它未解决的方面
- 供应商锁定(它是 OpenAI 优先)
- 再次出现的人类问题
缺失的环节:人类
每个主要协议都聚焦于 AI‑to‑AI(人工智能之间)的通信。这很合理——这是一个技术难题,而构建这些协议的公司本身就是 AI 公司。
但我在 医疗、金融和物流 领域构建 AI 系统的过程中学到的是:最难的并不是 AI 与 AI 的对话,而是 AI 与人类的对话,以及何时该进行对话。
来自斯坦福人本 AI 研究所的研究一再表明,人机协作的效果优于单独的任一方。他们在 2024 年关于 AI 辅助决策的研究发现,得到 AI 支持的人类做出的决策比单纯 AI 提升了 23 %——前提是人机交接设计良好。⁴
典型工作流(缺少人工交接)
| 步骤 | 代理 | 结果 |
|---|---|---|
| 1 | 数据代理 | 提取信息 ✓ |
| 2 | 分析代理 | 处理信息 ✓ |
| 3 | 推荐代理 | 生成选项 ✓ |
| 4 | 行动代理 | 执行 ✓ |
如果第 3 步本应是 “人工在执行前审查选项”,现有协议并没有给出明确的答案。你只能自行拼接临时方案:
- 可能被忽略的 Slack 通知
- 堆积在收件箱的邮件
- 没人查看的仪表盘
AI 推荐背后的上下文往往在人工看到时已经 丢失。
2024 年麦肯锡关于企业工作流中 AI 应用的研究发现,67 % 的 AI 实施失败 将 “人机交接设计不佳” 列为主要因素。⁵
不确定性与对人工输入的需求
AI 并不知道它不知道什么。当 AI 代理不确定时,它应当请求人工介入——但现行协议并未统一标准:
- 如何表达不确定性
- 在何种情况下不确定性应触发人工参与
- 如何为人工交接保留上下文
MIT CSAIL 的研究发现,大型语言模型常常 自信错误——在错误答案上表现出高置信度的比例高达 31 %。⁶ 若没有基于置信度的人工路由,这些错误会在自动化工作流中蔓延。
监管压力
监管正赶上 AI 的发展。GDPR、HIPAA、SOC 2、EU AI Act——都要求一定程度的可解释性和审计追踪。
- EU AI Act(全面生效 2025)明确要求对高风险 AI 系统进行 “有意义的人类监督”。⁷
- 第 14 条规定,人类必须能够理解 AI 输出并在必要时进行干预。
当前协议关注的是 代理之间 发生了什么。而审计员则会提出不同的问题:
- 谁作出了这个决定?
- 是否有人工参与?
- 人工本可以介入吗?
- 为什么没有人工介入?
如果你的协议没有把人类视为 一等公民,你将难以回答这些问题。
我们需要:把人类视为一等节点
人类不应该是“后备”或“升级路径”。他们应该是一个有效的节点类型,就像 AI 代理一样。
示例工作流
[AI: Analyze] → [Human: Validate] → [AI: Execute]
协议应当以与处理 AI 路由相同的方式来处理人类路由——包括:
- 保持上下文
- 明确的期望
- 追踪结果
当 AI 转交给人类时,人类应当了解:
- AI 正在尝试做什么
- 为什么它停止了
- 它考虑了哪些选项
- 它的建议是什么
当人类交回给 AI 时,AI 应当了解:
- 人类决定了什么
- 为什么做出该决定
- 人类提供的任何额外上下文
MCP 在AI 对 AI上下文方面表现出色。我们需要同样的严谨性来处理AI 对人类和人类对 AI的交互。
参考文献
- Anthropic, 模型上下文协议(MCP)——技术概览,2024年11月。
- Google Cloud, 代理对代理(A2A)规范,2025年4月。
- OpenAI, Agents SDK 文档,2025年3月。
- 斯坦福以人为本人工智能研究所,人类‑AI 协作研究,2024年。
- 麦肯锡公司,企业工作流中的 AI 报告,2024年。
- MIT CSAIL,大语言模型中的置信度校准,2024年。
- 欧盟委员会,欧盟 AI 法案 – 第14条:人类监督,2025年。
人类对AI与人类对人类的交互
协议应支持基于置信度的路由决策
这不仅是锦上添花。对于受监管的行业,它正变成强制性要求。
可审计的决策点
- 可用的信息是什么
- 做出了什么决策(由AI或人类做出)
- 为何做出该决策
- 随后发生了什么
这需要内置于协议中,而不是事后附加。
市场空白:以人为本的 AI 编排
一个能够:
- 支持 MCP、A2A 以及其他协议
- 将人类视为一等的工作流参与者
- 在跨越人类边界时保持上下文
- 提供原生治理和审计功能
AI 编排市场预计到 2032 年将达到 428 亿美元,年复合增长率为 23.4%。其中大部分将用于企业场景,而企业在没有人工参与的情况下无法部署 AI 工作流——合规团队不会允许这样做。
我已经 九年 致力于构建与人类 协同 而非取代人类的 AI 系统。其中几套系统已获得专利。
共同点: 最强大的 AI 系统 不取代人类,而是 与我们协作。
我目前正致力于将这种方法更广泛地应用于 AI 编排。如果你对以人为本的 AI 工作流感兴趣,敬请关注——我很快会有更多内容分享。
征求意见
- 你在当前 AI 协议中看到的最大缺口是什么?
- 人在你的 AI 工作流中扮演什么角色?
期待听到您的看法。
关于作者
Srirajasekhar “Bobby” Koritala – Bodaty 的创始人
- 近十年构建生产级 AI 系统的经验
- 拥有多项 AI 以及人机协作领域的专利
如果您觉得此内容有用,请点个反应并 关注 @bobbykoritala,以获取 AICtrlNet 开发的最新动态。
- ⭐ 给我们加星:
- 📖 阅读更多:
- 💬 加入讨论: GitHub Discussions
- 🚀 尝试安装:
pip install aictrlnet
Additional References
- Anthropic. (2024). 介绍模型上下文协议。
- Google Cloud. (2025). Agent2Agent:用于 AI 代理互操作性的开放协议。
- OpenAI. (2025). 介绍 Agents SDK。
- Stanford HAI. (2024). 高风险决策中的人机协作。
- McKinsey & Company. (2024). 2024 年 AI 状况:生成式 AI 的突破之年。
- MIT CSAIL. (2024). 校准大型语言模型的置信度。
- European Commission. (2024). 欧盟人工智能法案。
- Grand View Research. (2024). AI 编排市场规模报告,2024‑2032。