[Paper] 推断潜在意图:归因自然语言推理在 LLM 代理中的应用

发布: (2026年1月14日 GMT+8 01:18)
7 min read
原文: arXiv

Source: arXiv - 2601.08742v1

Overview

论文 “Inferring Latent Intentions: Attributional Natural Language Inference in LLM Agents” 解决了当前大型语言模型(LLMs)中缺失的一个关键能力:推理代理执行某个动作的原因,而不仅仅是是什么动作。通过将社会心理学的概念与自然语言推理(NLI)相结合,作者提出了一个新框架——Attributional NLI (Att‑NLI)——使基于 LLM 的代理能够在多代理环境中生成并验证关于隐藏意图的假设。

关键贡献

  • Att‑NLI 框架:在经典 NLI 基础上扩展了溯因(假设生成)和演绎(验证)推理,以建模意图归因。
  • Undercover‑V 基准:一种文本游戏,旨在评估代理在受控的多代理环境中推断潜在动机的能力。
  • 三种代理原型
    1. 标准 NLI 代理 – 纯演绎推理。
    2. Att‑NLI 代理 – 在没有外部工具的情况下进行溯因‑演绎推理。
    3. 神经符号 Att‑NLI 代理 – 通过定理证明器增强的溯因‑演绎推理。
  • 实证层级:表明神经符号代理始终优于另外两种,较基线 NLI 代理实现了 +17.08 % 胜率 的提升。
  • 跨学科洞见:展示了如何将社会心理学概念在大型语言模型推理流水线中实现。

方法论

1. 问题形式化

  • 作者将意图推断视为两步过程:
    • Abduction – 生成能够解释观察到的行为的合理潜在意图。
    • Deduction – 将每个假设与当前知识库进行检验,看其是否成立。

2. Att‑NLI 设计

  • Prompt templates 编码归纳性问题(例如 “What might X be trying to achieve by doing Y?”)和演绎性检查(例如 “Given hypothesis H, does it follow that …?”)。
  • 该框架可以插入任何支持 chain‑of‑thought prompting 的 LLM。

3. 神经‑符号增强

  • 在 LLM 提出假设后,系统将其转换为逻辑公式并送入外部定理证明器(如 Prolog 或 Z3)。
  • 定理证明器返回布尔结果,智能体据此剪枝或强化其信念状态。

4. 通过 Undercover‑V 进行评估

  • 一个回合制文本间谍游戏,多个代理(玩家、NPC 和 LLM)进行隐蔽行动。
  • 成功度量为 LLM 在游戏结束前正确识别目标代理隐藏目标的能力。

5. 指标

  • Win rate(LLM 正确归属目标意图的游戏比例)。
  • Hypothesis quality(生成意图的精确率/召回率)。
  • Computation overhead(定理证明引入的额外延迟)。

结果与发现

代理类型平均胜率假设精度开销 (ms)
标准 NLI(仅演绎)45.2 %0.61120
Att‑NLI(溯因‑演绎)58.7 %0.73210
神经符号 Att‑NLI62.3 %(+17.08 % 超过基线)0.81340
  • 溯因很重要:仅加入假设生成步骤即可使胜率提升约 13 %。
  • 神经符号协同:外部定理证明进一步细化假设,使精度超过 80 %,并实现最高胜率。
  • 权衡:更丰富的推理流水线带来适度的延迟,但仍在交互式游戏容忍范围内(每回合 < 0.5 秒)。

作者得出结论,意图归因是一种可以在 LLM 代理中系统培养的独特推理技能,神经符号集成为实现更理性行为提供了实用路径。

实际意义

  • 多代理 AI 系统:聊天机器人、虚拟助理或游戏 NPC 需要预判用户目标时,可以采用 Att‑NLI 变得更主动、更具上下文感知。
  • 安全与欺诈检测:监控日志或通信的系统可以生成潜在意图假设(例如,“该用户是否在尝试导出数据?”),并自动进行验证。
  • 人机协作:通过展示其推断的意图,LLM 能提供更清晰的解释,提升协作工作流中的信任(例如,代码审查助手说明开发者为何可能引入特定模式)。
  • 神经符号流水线:将 LLM 与定理证明器结合的显著收益鼓励开发者在现有 LLM 产品中嵌入轻量符号引擎(如 Z3、MiniZinc),无需完全重写。
  • 工具增强代理:论文的提示工程配方展示了如何仅通过少量 API 调用和可选的符号后端,将任何 LLM(GPT‑4、Claude、Llama 2)转变为归因推理器。

限制与未来工作

  • 定理证明的可扩展性:虽然在 Undercover‑V 中的适度逻辑结构上效果良好,但更复杂的真实世界领域可能导致证明器瓶颈。
  • 提示敏感性:归纳假设的质量在很大程度上取决于提示的措辞;在不同领域的鲁棒性仍是未解之谜。
  • 评估范围:基准测试仅聚焦于单一文本游戏;需要更广泛的测试(例如对话系统、谈判机器人)来验证其通用性。
  • 可解释性:尽管系统能够输出其假设,但将形式化的证明轨迹转化为人类可读的解释仍相当初步。

作者提出的未来研究方向包括:将 Att‑NLI 扩展到多模态输入(视觉 + 语言),整合概率推理以处理模糊意图,以及构建可重用的符号模块库,用于常见意图模式。

作者

  • Xin Quan
  • Jiafeng Xiong
  • Marco Valentino
  • André Freitas

论文信息

  • arXiv ID: 2601.08742v1
  • 分类: cs.CL
  • 出版时间: 2026年1月13日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »