Agentic AI 的未来:我会押注的(以及不会押注的)

发布: (2025年12月29日 GMT+8 22:19)
10 min read
原文: Dev.to

Source: Dev.to

在技术领域工作了二十年后,我学会了对预测保持谨慎。
我曾看到“革命性”的平台悄然消退。
我见证了渐进式改进重塑整个行业。
我也了解到,科技领域最危险的话往往是:“这一次不同”。

代理型 AI 在有意义的方面确实不同——但并非宣传噱头所描述的那种不同。
未来不会属于最响亮的演示或最自主的代理。
它将属于那些懂得代理系统真正能产生杠杆效应、以及何时会带来不可接受风险的组织。

以下是我会押注的方向——以及我不会押注的方向。

1. 可组合的代理架构

未来是模块化的。

试图包揽一切的单体代理将在现实复杂性面前捉襟见肘。企业的运作并非单一工作流,而是由职责、权限和约束层层叠加的系统。

可组合的代理架构——将代理构建为更小、定义明确的组件——能够更好地扩展,因为它们映射了组织已有的运作方式。

实际上,这意味着:

  • 规划、执行、验证和报告 分别设立独立的代理
  • 记忆、检索和可观测性 提供共享服务
  • 推理与行动 之间保持明确的边界

可组合系统更易于调试、治理和演进。当模型、工具或法规发生变化时,团队可以替换部分组件,而无需重写整个系统——这必然会发生。这不仅是架构偏好,更是生存策略。

2. 强治理层

治理不是可选的。它是必然的。

随着代理能够触发现实世界的操作——更新记录、批准交易、配置基础设施——组织将要求与风险相匹配的控制机制。

成功的系统会将治理视为 一等层级,而不是事后考虑,包括:

  • 工具访问控制 和权限范围划分
  • 决策和操作的审计日志
  • 针对高影响操作的 审批工作流
  • 运行时 的策略执行,而不仅仅是设计时

没有治理的代理式 AI 可能在演示中可行,但它无法通过合规审计、安全评审或高层审查。未来属于那些 因为受到约束而强大 的代理,而不是不受约束的代理。

3. 混合人类–AI 工作流

纯粹的自主被高估了。协作被低估了。

我见过的最有效的代理系统并不是要取代人类;它们的目标是通过消除摩擦、呈现洞见以及处理日常执行来放大人类的能力。

混合工作流认识到一个简单的事实:

  • 低风险 任务 → 代理自行执行
  • 中风险 任务 → 代理提出行动建议供审查
  • 高风险 任务 → 代理上报给人类

这与强大团队的运作方式相呼应:初级员工负责执行,高级员工处理例外和判断性决策。代理式 AI 并不取代组织结构——它将其具体化。

4. Domain‑Specific Agents

General intelligence is fascinating. Domain intelligence is useful.

能够提供真实业务价值的代理深深植根于特定领域——金融、医疗保健运营、物流、合规、客户支持、工程工作流。

这些代理能够理解:

  • Industry‑specific data structures
  • Domain rules and constraints
  • Regulatory requirements
  • Organizational context

它们不需要“无所不知”。只需对某一领域了解足够,就能持续做出良好决策。检索、上下文策划以及知识边界远比模型规模更为关键。当风险真实存在时,专精胜过泛化。

5. 企业拥有的智能

我最坚定的信念之一。

把智能视为租赁商品的组织最终会后悔。模型、定价、条款和监管都会变化。唯一不应改变的是对以下方面的所有权:

  • 业务逻辑
  • 决策框架
  • 制度性知识
  • 运营记忆

未来属于那些构建并拥有自主智能的企业,他们将模型视为可互换的组件,而非基础依赖。这并不意味着要从零开始构建模型;而是要拥有围绕模型的系统。这一点的区别比大多数人意识到的更为重要。

我会规避的风险

1. 关键系统中的完全自主通用代理

我并不怀疑我们会看到越来越强大的通用代理,但我怀疑在没有严格监督的情况下应该把它们交给关键系统。复杂的环境充满了边缘案例、冲突的激励以及不完整的信息。即使是高度能力的代理,也可能以微妙且高影响的方式失败——尤其是当目标定义不明确或上下文发生变化时。

  • 低风险 环境可以容忍实验性的自主性。
  • 受监管或安全关键 系统需要渐进、严格监控的自主性。

自主性应当是通过实践获得的,而不是事先声明的。

2. “一刀切”AI平台

通用平台承诺速度和简易性,但企业往往带来复杂性和例外。每个严肃的组织都有:

  • 传统系统
  • 定制工作流
  • 内部政治
  • 合规义务

为“平均客户”优化的平台在真实约束出现时必然会失效。失败并非因为工程质量差,而是因为 抽象总会泄漏。未来不会是“一平台统治一切”,而是围绕具体组织现实而设计的可适配系统。

3. 复杂企业的“无代码”代理构建器

无代码工具对实验很有价值,但当它们被误认为是可直接投入生产的系统时就会变得危险。复杂企业需要:

  • 精确的逻辑
  • 明确的合约
  • 可靠的错误处理
  • 深度集成

把这些关注点抽象掉并不会消除它们,只是把它们隐藏起来,直到它们在最糟糕的时刻崩溃。代理系统不是电子表格;把它们当作电子表格来使用只会产生虚假的信心。

4. 没有问责机制的 AI

这是我划定最硬界限的地方。

任何能够影响现实世界的系统都必须具备明确、可执行的问责机制。缺少这些机制,组织将面临法律、财务和声誉风险。问责包括:

  • 透明的决策来源追溯
  • 对高影响行动的人机交互控制
  • 可审计的日志和事后分析流程

只有通过严格的问责,企业才能安全地利用代理 AI 的力量。

“是 AI 做的” 在商业、法律或伦理上都不是一个可接受的答案。

未来属于那些将责任明确化的系统:

  • 谁批准了此操作?
  • 哪些数据支撑了此决策?
  • 如何撤销?
  • 当它失败时谁承担责任?

没有问责,信任就会崩塌。没有信任,采纳就会停滞。

代理 AI 并不是要取代人类,而是要提升组织的基准——更快的决策、更少的瓶颈、更一致的执行。

但这种未来不会通过追求自主性本身来构建。它将由那些以谦逊、结构化和长期思考方式对待代理 AI 的团队来打造——把代理视为 需要设计、治理和改进的系统,而不是要释放的魔法。

  • 有些人会构建持久的竞争优势。
  • 另一些人只会做出令人印象深刻的演示。

我已经知道自己更愿站在哪一边。

Back to Blog

相关文章

阅读更多 »