[Paper] 代理漂移:量化多智能体 LLM 系统在长期交互中的行为退化
Source: arXiv - 2601.04170v1
概览
大型语言模型(LLM)代理正日益被组合在一起,以解决复杂的多步骤问题。虽然短期收益令人印象深刻,但 当这些代理连续聊天数小时甚至数天会怎样? Abhishek Rath 的论文提出了 agent drift——即在长时间交互过程中,代理的推理质量、语义聚焦和团队协作的缓慢衰减。通过对漂移进行形式化并提供具体的衡量与抑制方法,该工作为开发者提供了一种实用视角,以构建更可靠、生产级别的多代理系统。
关键贡献
- “代理漂移”定义,包括三种具体子类型:
- 语义漂移 – 从原始任务意图的逐渐偏离。
- 协同漂移 – 代理之间共识和共享计划的侵蚀。
- 行为漂移 – 出现意外或有害的策略。
- 代理稳定性指数(ASI) – 一个复合的 12 维度度量,用于量化漂移,涵盖:响应一致性、工具使用模式、推理路径稳定性、代理间一致性、幻觉率、延迟等。
- 理论框架 将漂移与错误传播关联,展示了每回合的微小退化如何累积成显著的性能下降。
- 仿真套件 能复现长时多代理对话(最高 10 k 回合),并将 ASI 与真实任务成功率进行验证。
- 三种缓解蓝图:
- 情景记忆巩固 – 定期对共享上下文进行摘要并重新锚定。
- 漂移感知路由 – 根据当前 ASI 分数动态选择代理。
- 自适应行为锚定 – 轻量化提示,在固定间隔重新注入核心目标。
方法论
- 形式化 – 本文首先将多智能体系统建模为一个马尔可夫链,其中每一回合的状态包括智能体的内部提示、工具调用以及共享记忆。漂移被表示为相对于理想“稳态”轨迹的偏差向量。
- 度量设计 – 十二个可观测信号(例如,对初始查询的词汇相似度、工具选择 logits 的方差、协议比例)被归一化并加权合成为 ASI。
- 仿真环境 – 一个自定义沙盒将开源 LLM(如 Llama 2‑70B)与工具使用 API 串联起来。场景涵盖代码生成、数据管道编排以及多步推理谜题。每次运行都会记录每一回合,以便计算 ASI。
- 缓解原型 – 三种策略实现为中间件层,在固定间隔(例如每 100 回合)介入,以刷新上下文或重新分配任务。
- 评估 – 通过任务完成准确率、人为干预频率以及吞吐量(tokens/second)来衡量性能。通过将基线运行(无缓解)与各缓解变体进行比较,来孤立漂移的影响。
结果与发现
| 条件 | 平均 ASI(数值越低越稳定) | 任务成功率 % | 人为干预 % |
|---|---|---|---|
| 基线(无缓解) | 0.68 | 71 % | 23 % |
| 情景记忆巩固 | 0.45 | 84 % | 12 % |
| 漂移感知路由 | 0.48 | 82 % | 14 % |
| 自适应锚定 | 0.42 | 86 % | 10 % |
| 综合(全部三种) | 0.31 | 92 % | 5 % |
- 漂移是累积的: 即使每回合推理一致性下降 1 %,在约 5 k 回合后也会使成功率减半。
- 缓解措施具有协同效应: 同时应用这三种策略可使任务准确率提升约 20 %,并将人为交接减少超过一半。
- 吞吐量影响有限: 综合方法会增加约 8 % 的延迟,仍在大多数企业流水线可接受的范围内。
实际影响
-
Production reliability: 生产可靠性: 部署自主代理用于长期工作流的公司(例如,自动化客户支持、持续的数据管道编排)现在可以监控 ASI 仪表盘,以在漂移影响 SLA 之前发现它。
-
Tool‑integration safety: 工具集成安全: 通过跟踪工具使用漂移,开发者可以防止代理随着时间的推移反复调用风险 API 或提升权限。
-
Cost optimisation: 成本优化: 减少人为干预直接转化为更低的运营费用以及 AI 增强服务更快的价值实现时间。
-
AI‑safety compliance: AI 安全合规: ASI 提供可量化的安全指标,可纳入内部审计记录或外部监管报告。
-
Framework‑agnostic: 框架无关: 这些缓解模式是轻量级包装器;它们可以直接应用于任何基于 LLM 的代理堆栈(OpenAI、Anthropic、Cohere、自托管模型),无需重新训练。
限制与未来工作
- Simulation‑centric validation: 实际部署可能出现更丰富的环境噪声(网络延迟、用户情绪),而当前沙箱未能捕获。
- Metric weighting: ASI 的综合得分依赖手动调节的权重;从特定领域数据中自动学习这些权重仍是一个未解决的挑战。
- Scalability to hundreds of agents: 实验仅限于 5‑10 个代理;将 drift‑aware routing 逻辑扩展到大规模群体需要层次化的协调机制。
- Human‑in‑the‑loop studies: 未来工作应评估开发者如何与漂移警报交互,以及所提出的缓解措施是否符合人类调试工作流。
Bottom line: Rath 的 “Agent Drift” 论文为工程师提供了诊断工具包和具体的缓解方案,以在长期、高风险部署中保持多 LLM 代理的正常运行。将漂移视为首要可靠性问题,开发者可以从实验原型转向稳健的生产级 AI 合作伙伴。
作者
- Abhishek Rath
论文信息
- arXiv ID: 2601.04170v1
- 分类: cs.AI
- 发布时间: 2026年1月7日
- PDF: 下载 PDF