Agentic AI 的未来:我会押注的(以及不会押注的)
Source: Dev.to
在技术领域工作了二十年后,我学会了对预测保持谨慎。
我曾看到“革命性”的平台悄然消退。
我见证了渐进式改进重塑整个行业。
我也了解到,科技领域最危险的话往往是:“这一次不同”。
代理型 AI 在有意义的方面确实不同——但并非宣传噱头所描述的那种不同。
未来不会属于最响亮的演示或最自主的代理。
它将属于那些懂得代理系统真正能产生杠杆效应、以及何时会带来不可接受风险的组织。
以下是我会押注的方向——以及我不会押注的方向。
1. 可组合的代理架构
未来是模块化的。
试图包揽一切的单体代理将在现实复杂性面前捉襟见肘。企业的运作并非单一工作流,而是由职责、权限和约束层层叠加的系统。
可组合的代理架构——将代理构建为更小、定义明确的组件——能够更好地扩展,因为它们映射了组织已有的运作方式。
实际上,这意味着:
- 为 规划、执行、验证和报告 分别设立独立的代理
- 为 记忆、检索和可观测性 提供共享服务
- 在 推理与行动 之间保持明确的边界
可组合系统更易于调试、治理和演进。当模型、工具或法规发生变化时,团队可以替换部分组件,而无需重写整个系统——这必然会发生。这不仅是架构偏好,更是生存策略。
2. 强治理层
治理不是可选的。它是必然的。
随着代理能够触发现实世界的操作——更新记录、批准交易、配置基础设施——组织将要求与风险相匹配的控制机制。
成功的系统会将治理视为 一等层级,而不是事后考虑,包括:
- 工具访问控制 和权限范围划分
- 决策和操作的审计日志
- 针对高影响操作的 审批工作流
- 运行时 的策略执行,而不仅仅是设计时
没有治理的代理式 AI 可能在演示中可行,但它无法通过合规审计、安全评审或高层审查。未来属于那些 因为受到约束而强大 的代理,而不是不受约束的代理。
3. 混合人类–AI 工作流
纯粹的自主被高估了。协作被低估了。
我见过的最有效的代理系统并不是要取代人类;它们的目标是通过消除摩擦、呈现洞见以及处理日常执行来放大人类的能力。
混合工作流认识到一个简单的事实:
- 低风险 任务 → 代理自行执行
- 中风险 任务 → 代理提出行动建议供审查
- 高风险 任务 → 代理上报给人类
这与强大团队的运作方式相呼应:初级员工负责执行,高级员工处理例外和判断性决策。代理式 AI 并不取代组织结构——它将其具体化。
4. Domain‑Specific Agents
General intelligence is fascinating. Domain intelligence is useful.
能够提供真实业务价值的代理深深植根于特定领域——金融、医疗保健运营、物流、合规、客户支持、工程工作流。
这些代理能够理解:
- Industry‑specific data structures
- Domain rules and constraints
- Regulatory requirements
- Organizational context
它们不需要“无所不知”。只需对某一领域了解足够,就能持续做出良好决策。检索、上下文策划以及知识边界远比模型规模更为关键。当风险真实存在时,专精胜过泛化。
5. 企业拥有的智能
我最坚定的信念之一。
把智能视为租赁商品的组织最终会后悔。模型、定价、条款和监管都会变化。唯一不应改变的是对以下方面的所有权:
- 业务逻辑
- 决策框架
- 制度性知识
- 运营记忆
未来属于那些构建并拥有自主智能的企业,他们将模型视为可互换的组件,而非基础依赖。这并不意味着要从零开始构建模型;而是要拥有围绕模型的系统。这一点的区别比大多数人意识到的更为重要。
我会规避的风险
1. 关键系统中的完全自主通用代理
我并不怀疑我们会看到越来越强大的通用代理,但我怀疑在没有严格监督的情况下应该把它们交给关键系统。复杂的环境充满了边缘案例、冲突的激励以及不完整的信息。即使是高度能力的代理,也可能以微妙且高影响的方式失败——尤其是当目标定义不明确或上下文发生变化时。
- 低风险 环境可以容忍实验性的自主性。
- 受监管或安全关键 系统需要渐进、严格监控的自主性。
自主性应当是通过实践获得的,而不是事先声明的。
2. “一刀切”AI平台
通用平台承诺速度和简易性,但企业往往带来复杂性和例外。每个严肃的组织都有:
- 传统系统
- 定制工作流
- 内部政治
- 合规义务
为“平均客户”优化的平台在真实约束出现时必然会失效。失败并非因为工程质量差,而是因为 抽象总会泄漏。未来不会是“一平台统治一切”,而是围绕具体组织现实而设计的可适配系统。
3. 复杂企业的“无代码”代理构建器
无代码工具对实验很有价值,但当它们被误认为是可直接投入生产的系统时就会变得危险。复杂企业需要:
- 精确的逻辑
- 明确的合约
- 可靠的错误处理
- 深度集成
把这些关注点抽象掉并不会消除它们,只是把它们隐藏起来,直到它们在最糟糕的时刻崩溃。代理系统不是电子表格;把它们当作电子表格来使用只会产生虚假的信心。
4. 没有问责机制的 AI
这是我划定最硬界限的地方。
任何能够影响现实世界的系统都必须具备明确、可执行的问责机制。缺少这些机制,组织将面临法律、财务和声誉风险。问责包括:
- 透明的决策来源追溯
- 对高影响行动的人机交互控制
- 可审计的日志和事后分析流程
只有通过严格的问责,企业才能安全地利用代理 AI 的力量。
“是 AI 做的” 在商业、法律或伦理上都不是一个可接受的答案。
未来属于那些将责任明确化的系统:
- 谁批准了此操作?
- 哪些数据支撑了此决策?
- 如何撤销?
- 当它失败时谁承担责任?
没有问责,信任就会崩塌。没有信任,采纳就会停滞。
代理 AI 并不是要取代人类,而是要提升组织的基准——更快的决策、更少的瓶颈、更一致的执行。
但这种未来不会通过追求自主性本身来构建。它将由那些以谦逊、结构化和长期思考方式对待代理 AI 的团队来打造——把代理视为 需要设计、治理和改进的系统,而不是要释放的魔法。
- 有些人会构建持久的竞争优势。
- 另一些人只会做出令人印象深刻的演示。
我已经知道自己更愿站在哪一边。