Inferring Latent Intentions: Attributional Natural Language Inference in LLM Agents

📄 arXiv: 2601.08742v1 📥 PDF

作者: Xin Quan, Jiafeng Xiong, Marco Valentino, André Freitas

分类: cs.CL

发布日期: 2026-01-13


💡 一句话要点

提出Att-NLI框架,提升LLM在多智能体环境中基于意图的推理能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 归因推理 自然语言推理 大型语言模型 多智能体系统 意图推断

📋 核心要点

  1. 传统NLI在多智能体交互场景中,无法有效捕捉基于意图的细微推理,限制了LLM的应用。
  2. Att-NLI框架融合社会心理学原理,通过溯因推理生成意图假设,再进行演绎验证,模拟人类的意图理解过程。
  3. 实验表明,神经符号Att-NLI智能体在文本游戏中表现最佳,胜率显著提升,验证了该框架的有效性。

📝 摘要(中文)

归因推理,即预测观察到的行为背后潜在意图的能力,对于在多智能体环境中运行的大型语言模型(LLM)至关重要,但尚未得到充分探索。传统的自然语言推理(NLI)无法捕捉复杂交互系统所需的细致的、意图驱动的推理。为了解决这个问题,我们引入了归因NLI(Att-NLI),该框架通过社会心理学原理扩展了NLI,以评估智能体进行溯因意图推理(生成关于潜在意图的假设)和随后的演绎验证(得出有效的逻辑结论)的能力。我们通过文本游戏Undercover-V实例化了Att-NLI,并使用三种具有不同推理能力和外部工具访问权限的LLM智能体进行了实验:仅使用演绎推理的标准NLI智能体,采用溯因-演绎推理的Att-NLI智能体,以及使用外部定理证明器执行溯因-演绎推理的神经符号Att-NLI智能体。大量实验表明了归因推理能力的清晰层次结构,其中神经符号智能体始终优于其他智能体,平均胜率为17.08%。我们的结果强调了Att-NLI在开发具有复杂推理能力的智能体中的作用,同时也突出了神经符号AI在构建多智能体环境中理性LLM智能体方面的潜在影响。

🔬 方法详解

问题定义:论文旨在解决LLM在多智能体环境中进行归因推理能力不足的问题。现有的NLI方法主要关注演绎推理,缺乏对智能体行为背后潜在意图的理解和推断,导致在复杂交互场景中表现不佳。这种不足限制了LLM在需要理解他人意图并做出相应决策的应用中的潜力。

核心思路:论文的核心思路是将社会心理学中的归因理论引入NLI框架,构建Att-NLI。通过模拟人类的意图推断过程,即首先进行溯因推理,生成关于智能体潜在意图的假设,然后进行演绎推理,验证这些假设的合理性。这种溯因-演绎结合的方式能够更有效地理解智能体的行为,并做出更合理的决策。

技术框架:Att-NLI框架主要包含以下几个模块:1) 观察模块,用于观察智能体的行为和环境信息;2) 溯因推理模块,用于根据观察到的信息生成关于智能体潜在意图的假设;3) 演绎推理模块,用于验证这些假设的合理性;4) 决策模块,用于根据推理结果做出相应的决策。论文通过文本游戏Undercover-V来实例化Att-NLI,并设计了三种不同类型的智能体:标准NLI智能体、Att-NLI智能体和神经符号Att-NLI智能体。

关键创新:论文最重要的技术创新点在于将溯因推理引入NLI框架,使其能够进行意图推断。与传统的NLI方法相比,Att-NLI能够更好地理解智能体的行为,并做出更合理的决策。此外,神经符号Att-NLI智能体通过结合外部定理证明器,进一步提升了推理的准确性和可靠性。

关键设计:在实验中,论文使用了三种不同类型的LLM智能体,并对它们的推理能力和外部工具访问权限进行了不同的设置。标准NLI智能体仅使用演绎推理,Att-NLI智能体采用溯因-演绎推理,而神经符号Att-NLI智能体则使用外部定理证明器执行溯因-演绎推理。通过比较这三种智能体的表现,论文验证了Att-NLI框架的有效性,并证明了神经符号AI在提升LLM推理能力方面的潜力。

📊 实验亮点

实验结果表明,神经符号Att-NLI智能体在Undercover-V游戏中表现最佳,平均胜率为17.08%,显著优于标准NLI智能体和Att-NLI智能体。这表明,结合溯因推理和外部知识库能够有效提升LLM在复杂交互环境中的推理能力,验证了Att-NLI框架的有效性。

🎯 应用场景

该研究成果可应用于多智能体协作、人机交互、博弈论等领域。例如,在智能客服中,系统可以根据用户的提问推断其潜在需求,提供更个性化的服务。在自动驾驶中,车辆可以根据其他车辆的行为推断其驾驶意图,从而做出更安全的决策。未来,该研究有望推动构建更智能、更具协作性的AI系统。

📄 摘要(原文)

Attributional inference, the ability to predict latent intentions behind observed actions, is a critical yet underexplored capability for large language models (LLMs) operating in multi-agent environments. Traditional natural language inference (NLI), in fact, fails to capture the nuanced, intention-driven reasoning essential for complex interactive systems. To address this gap, we introduce Attributional NLI (Att-NLI), a framework that extends NLI with principles from social psychology to assess an agent's capacity for abductive intentional inference (generating hypotheses about latent intentions), and subsequent deductive verification (drawing valid logical conclusions). We instantiate Att-NLI via a textual game, Undercover-V, experimenting with three types of LLM agents with varying reasoning capabilities and access to external tools: a standard NLI agent using only deductive inference, an Att-NLI agent employing abductive-deductive inference, and a neuro-symbolic Att-NLI agent performing abductive-deductive inference with external theorem provers. Extensive experiments demonstrate a clear hierarchy of attributional inference capabilities, with neuro-symbolic agents consistently outperforming others, achieving an average win rate of 17.08%. Our results underscore the role that Att-NLI can play in developing agents with sophisticated reasoning capabilities, highlighting, at the same time, the potential impact of neuro-symbolic AI in building rational LLM agents acting in multi-agent environments.