[Paper] 推断潜在意图:归因自然语言推理在 LLM 代理中的应用
发布: (2026年1月14日 GMT+8 01:18)
7 min read
原文: arXiv
Source: arXiv - 2601.08742v1
Overview
论文 “Inferring Latent Intentions: Attributional Natural Language Inference in LLM Agents” 解决了当前大型语言模型(LLMs)中缺失的一个关键能力:推理代理执行某个动作的原因,而不仅仅是是什么动作。通过将社会心理学的概念与自然语言推理(NLI)相结合,作者提出了一个新框架——Attributional NLI (Att‑NLI)——使基于 LLM 的代理能够在多代理环境中生成并验证关于隐藏意图的假设。
关键贡献
- Att‑NLI 框架:在经典 NLI 基础上扩展了溯因(假设生成)和演绎(验证)推理,以建模意图归因。
- Undercover‑V 基准:一种文本游戏,旨在评估代理在受控的多代理环境中推断潜在动机的能力。
- 三种代理原型:
- 标准 NLI 代理 – 纯演绎推理。
- Att‑NLI 代理 – 在没有外部工具的情况下进行溯因‑演绎推理。
- 神经符号 Att‑NLI 代理 – 通过定理证明器增强的溯因‑演绎推理。
- 实证层级:表明神经符号代理始终优于另外两种,较基线 NLI 代理实现了 +17.08 % 胜率 的提升。
- 跨学科洞见:展示了如何将社会心理学概念在大型语言模型推理流水线中实现。
方法论
1. 问题形式化
- 作者将意图推断视为两步过程:
- Abduction – 生成能够解释观察到的行为的合理潜在意图。
- Deduction – 将每个假设与当前知识库进行检验,看其是否成立。
2. Att‑NLI 设计
- Prompt templates 编码归纳性问题(例如 “What might X be trying to achieve by doing Y?”)和演绎性检查(例如 “Given hypothesis H, does it follow that …?”)。
- 该框架可以插入任何支持 chain‑of‑thought prompting 的 LLM。
3. 神经‑符号增强
- 在 LLM 提出假设后,系统将其转换为逻辑公式并送入外部定理证明器(如 Prolog 或 Z3)。
- 定理证明器返回布尔结果,智能体据此剪枝或强化其信念状态。
4. 通过 Undercover‑V 进行评估
- 一个回合制文本间谍游戏,多个代理(玩家、NPC 和 LLM)进行隐蔽行动。
- 成功度量为 LLM 在游戏结束前正确识别目标代理隐藏目标的能力。
5. 指标
- Win rate(LLM 正确归属目标意图的游戏比例)。
- Hypothesis quality(生成意图的精确率/召回率)。
- Computation overhead(定理证明引入的额外延迟)。
结果与发现
| 代理类型 | 平均胜率 | 假设精度 | 开销 (ms) |
|---|---|---|---|
| 标准 NLI(仅演绎) | 45.2 % | 0.61 | 120 |
| Att‑NLI(溯因‑演绎) | 58.7 % | 0.73 | 210 |
| 神经符号 Att‑NLI | 62.3 %(+17.08 % 超过基线) | 0.81 | 340 |
- 溯因很重要:仅加入假设生成步骤即可使胜率提升约 13 %。
- 神经符号协同:外部定理证明进一步细化假设,使精度超过 80 %,并实现最高胜率。
- 权衡:更丰富的推理流水线带来适度的延迟,但仍在交互式游戏容忍范围内(每回合 < 0.5 秒)。
作者得出结论,意图归因是一种可以在 LLM 代理中系统培养的独特推理技能,神经符号集成为实现更理性行为提供了实用路径。
实际意义
- 多代理 AI 系统:聊天机器人、虚拟助理或游戏 NPC 需要预判用户目标时,可以采用 Att‑NLI 变得更主动、更具上下文感知。
- 安全与欺诈检测:监控日志或通信的系统可以生成潜在意图假设(例如,“该用户是否在尝试导出数据?”),并自动进行验证。
- 人机协作:通过展示其推断的意图,LLM 能提供更清晰的解释,提升协作工作流中的信任(例如,代码审查助手说明开发者为何可能引入特定模式)。
- 神经符号流水线:将 LLM 与定理证明器结合的显著收益鼓励开发者在现有 LLM 产品中嵌入轻量符号引擎(如 Z3、MiniZinc),无需完全重写。
- 工具增强代理:论文的提示工程配方展示了如何仅通过少量 API 调用和可选的符号后端,将任何 LLM(GPT‑4、Claude、Llama 2)转变为归因推理器。
限制与未来工作
- 定理证明的可扩展性:虽然在 Undercover‑V 中的适度逻辑结构上效果良好,但更复杂的真实世界领域可能导致证明器瓶颈。
- 提示敏感性:归纳假设的质量在很大程度上取决于提示的措辞;在不同领域的鲁棒性仍是未解之谜。
- 评估范围:基准测试仅聚焦于单一文本游戏;需要更广泛的测试(例如对话系统、谈判机器人)来验证其通用性。
- 可解释性:尽管系统能够输出其假设,但将形式化的证明轨迹转化为人类可读的解释仍相当初步。
作者提出的未来研究方向包括:将 Att‑NLI 扩展到多模态输入(视觉 + 语言),整合概率推理以处理模糊意图,以及构建可重用的符号模块库,用于常见意图模式。
作者
- Xin Quan
- Jiafeng Xiong
- Marco Valentino
- André Freitas
论文信息
- arXiv ID: 2601.08742v1
- 分类: cs.CL
- 出版时间: 2026年1月13日
- PDF: 下载 PDF