协议战争忽视了要点

发布: (2026年2月19日 GMT+8 04:49)
13 分钟阅读
原文: Dev.to

Source: Dev.to

介绍

目前 AI 正在发生一些有趣的事。最大的参与者正争相定义 AI 代理之间——以及它们与我们之间——的交流方式。

  • Anthropic 拥有 MCP
  • Google 拥有 A2A
  • OpenAI 拥有其 Agents SDK

每个人都在构建协议。

但在我从事 AI 系统(包括多个已获专利的系统)九年的工作后,我一直注意到这些讨论中缺失的东西:人类

Source:

让我拆解一下实际发生的事情

MCP(模型上下文协议)

Anthropic 试图标准化 AI 模型共享上下文的方式。
2024 年 11 月 宣布,MCP 旨在作为一个开放协议,为 AI 助手与数据源和工具的连接创建一种通用方式。¹

MCP 解决的问题——当你将多个 AI 调用串联起来时,上下文会丢失。第二个模型不知道第一个模型在想什么。MCP 提供了一种结构化的方式来传递这些上下文。

MCP 做得好的地方

  • 在不同模型之间使用标准化的上下文格式
  • AI 组件之间的顺畅交接
  • 跨不同 AI 提供商工作(不仅限于 Claude)
  • 开放规范,任何人都可以实现

MCP 未解决的方面

  • 当需要人工介入时会怎样?
  • 人类的上下文如何被保留并传递?
  • 谁来决定 AI 何时应该停止并请求帮助?

Google 的 A2A

关注自主代理之间的通信与协作方式。
2025 年 4 月 宣布,A2A 基于已有的标准如 HTTP 和 JSON‑RPC,定义了代理如何发现彼此的能力、协商任务以及在复杂工作流中协作。²

A2A 做得好的地方

  • 跨供应商的多代理协同
  • 能力发现与协商
  • 在专门化代理之间进行任务委派
  • 基于成熟的 Web 标准构建

A2A 未解决的方面

  • 同样的缺口:人类在哪里?
  • 当代理 A 将任务交给代理 B 时,如果应该由人类而不是代理 B 来处理怎么办?
  • 如何审计那些本不打算被审计的决策?

OpenAI Agents SDK

面向生产环境的多代理系统构建框架。
2025 年 3 月 发布,它取代了实验性的 Swarm 框架,提供了更稳健的方案。³

它做得好的地方

  • 清晰的开发者体验
  • 对常见模式提供良好的默认设置
  • 与 OpenAI 模型的紧密集成
  • 生产就绪的工具链

它未解决的方面

  • 供应商锁定(它是 OpenAI 优先)
  • 再次出现的人类问题

缺失的环节:人类

每个主要协议都聚焦于 AI‑to‑AI(人工智能之间)的通信。这很合理——这是一个技术难题,而构建这些协议的公司本身就是 AI 公司。

但我在 医疗、金融和物流 领域构建 AI 系统的过程中学到的是:最难的并不是 AI 与 AI 的对话,而是 AI 与人类的对话,以及何时该进行对话

来自斯坦福人本 AI 研究所的研究一再表明,人机协作的效果优于单独的任一方。他们在 2024 年关于 AI 辅助决策的研究发现,得到 AI 支持的人类做出的决策比单纯 AI 提升了 23 %——前提是人机交接设计良好。⁴

典型工作流(缺少人工交接)

步骤代理结果
1数据代理提取信息 ✓
2分析代理处理信息 ✓
3推荐代理生成选项 ✓
4行动代理执行 ✓

如果第 3 步本应是 “人工在执行前审查选项”,现有协议并没有给出明确的答案。你只能自行拼接临时方案:

  • 可能被忽略的 Slack 通知
  • 堆积在收件箱的邮件
  • 没人查看的仪表盘

AI 推荐背后的上下文往往在人工看到时已经 丢失

2024 年麦肯锡关于企业工作流中 AI 应用的研究发现,67 % 的 AI 实施失败 将 “人机交接设计不佳” 列为主要因素。⁵

不确定性与对人工输入的需求

AI 并不知道它不知道什么。当 AI 代理不确定时,它应当请求人工介入——但现行协议并未统一标准:

  • 如何表达不确定性
  • 在何种情况下不确定性应触发人工参与
  • 如何为人工交接保留上下文

MIT CSAIL 的研究发现,大型语言模型常常 自信错误——在错误答案上表现出高置信度的比例高达 31 %。⁶ 若没有基于置信度的人工路由,这些错误会在自动化工作流中蔓延。

监管压力

监管正赶上 AI 的发展。GDPR、HIPAA、SOC 2、EU AI Act——都要求一定程度的可解释性和审计追踪。

  • EU AI Act(全面生效 2025)明确要求对高风险 AI 系统进行 “有意义的人类监督”。⁷
  • 第 14 条规定,人类必须能够理解 AI 输出并在必要时进行干预。

当前协议关注的是 代理之间 发生了什么。而审计员则会提出不同的问题:

  1. 谁作出了这个决定?
  2. 是否有人工参与?
  3. 人工本可以介入吗?
  4. 为什么没有人工介入?

如果你的协议没有把人类视为 一等公民,你将难以回答这些问题。

我们需要:把人类视为一等节点

人类不应该是“后备”或“升级路径”。他们应该是一个有效的节点类型,就像 AI 代理一样。

示例工作流

[AI: Analyze] → [Human: Validate] → [AI: Execute]

协议应当以与处理 AI 路由相同的方式来处理人类路由——包括:

  • 保持上下文
  • 明确的期望
  • 追踪结果

当 AI 转交给人类时,人类应当了解:

  • AI 正在尝试做什么
  • 为什么它停止了
  • 它考虑了哪些选项
  • 它的建议是什么

当人类交回给 AI 时,AI 应当了解:

  • 人类决定了什么
  • 为什么做出该决定
  • 人类提供的任何额外上下文

MCP 在AI 对 AI上下文方面表现出色。我们需要同样的严谨性来处理AI 对人类人类对 AI的交互。

参考文献

  1. Anthropic, 模型上下文协议(MCP)——技术概览,2024年11月。
  2. Google Cloud, 代理对代理(A2A)规范,2025年4月。
  3. OpenAI, Agents SDK 文档,2025年3月。
  4. 斯坦福以人为本人工智能研究所,人类‑AI 协作研究,2024年。
  5. 麦肯锡公司,企业工作流中的 AI 报告,2024年。
  6. MIT CSAIL,大语言模型中的置信度校准,2024年。
  7. 欧盟委员会,欧盟 AI 法案 – 第14条:人类监督,2025年。

人类对AI与人类对人类的交互

协议应支持基于置信度的路由决策
这不仅是锦上添花。对于受监管的行业,它正变成强制性要求。

可审计的决策点

  • 可用的信息是什么
  • 做出了什么决策(由AI或人类做出)
  • 为何做出该决策
  • 随后发生了什么

这需要内置于协议中,而不是事后附加。

市场空白:以人为本的 AI 编排

一个能够:

  1. 支持 MCP、A2A 以及其他协议
  2. 将人类视为一等的工作流参与者
  3. 在跨越人类边界时保持上下文
  4. 提供原生治理和审计功能

AI 编排市场预计到 2032 年将达到 428 亿美元,年复合增长率为 23.4%。其中大部分将用于企业场景,而企业在没有人工参与的情况下无法部署 AI 工作流——合规团队不会允许这样做。

我已经 九年 致力于构建与人类 协同 而非取代人类的 AI 系统。其中几套系统已获得专利。

共同点: 最强大的 AI 系统 不取代人类,而是 与我们协作

我目前正致力于将这种方法更广泛地应用于 AI 编排。如果你对以人为本的 AI 工作流感兴趣,敬请关注——我很快会有更多内容分享。

征求意见

  • 你在当前 AI 协议中看到的最大缺口是什么?
  • 人在你的 AI 工作流中扮演什么角色?

期待听到您的看法。

关于作者

Srirajasekhar “Bobby” KoritalaBodaty 的创始人

  • 近十年构建生产级 AI 系统的经验
  • 拥有多项 AI 以及人机协作领域的专利

如果您觉得此内容有用,请点个反应并 关注 @bobbykoritala,以获取 AICtrlNet 开发的最新动态。

  • 给我们加星:
  • 📖 阅读更多:
  • 💬 加入讨论: GitHub Discussions
  • 🚀 尝试安装: pip install aictrlnet

Additional References

  1. Anthropic. (2024). 介绍模型上下文协议
  2. Google Cloud. (2025). Agent2Agent:用于 AI 代理互操作性的开放协议
  3. OpenAI. (2025). 介绍 Agents SDK
  4. Stanford HAI. (2024). 高风险决策中的人机协作
  5. McKinsey & Company. (2024). 2024 年 AI 状况:生成式 AI 的突破之年
  6. MIT CSAIL. (2024). 校准大型语言模型的置信度
  7. European Commission. (2024). 欧盟人工智能法案
  8. Grand View Research. (2024). AI 编排市场规模报告,2024‑2032
0 浏览
Back to Blog

相关文章

阅读更多 »

OpenClaw 设计上不安全

OpenClaw 设计上不安全 Cline 供应链攻击 2月17日 一个流行的 VS Code 扩展 Cline 被攻破。攻击链展示了多个 AI …