DICE: Dynamic In-Context Example Selection in LLM Agents via Efficient Knowledge Transfer
作者: Ruoyu Wang, Junda Wu, Yu Xia, Tong Yu, Ryan A. Rossi, Julian McAuley, Lina Yao
分类: cs.AI
发布日期: 2025-07-31
💡 一句话要点
DICE:通过高效知识迁移在LLM Agent中进行动态In-Context示例选择
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 In-Context Learning Agent 示例选择 因果推断 知识迁移 动态选择
📋 核心要点
- 现有ICL方法对示例选择敏感,启发式方法缺乏通用性和理论依据,导致Agent性能不稳定。
- DICE通过因果视角分解知识,区分可转移和不可转移部分,避免虚假依赖,提升泛化能力。
- DICE无需额外训练,可作为插件集成到现有Agent框架,实验证明其在不同领域有效提升性能。
📝 摘要(中文)
基于大型语言模型的Agent通过In-Context Learning (ICL) 在复杂的推理和工具使用任务中表现出强大的能力。然而,现有研究表明,ICL的有效性对示例的选择高度敏感,次优示例通常会导致不稳定或性能下降。虽然之前的工作已经探索了示例选择,包括在一些Agent或多步骤设置中,但现有方法通常依赖于启发式或特定于任务的设计,并且缺乏一个通用的、理论上合理的标准来判断什么构成跨推理步骤的有效演示。因此,开发一种有原则的、通用的方法来选择能够持续提升Agent性能的演示并非易事。本文提出了DICE,即LLM Agent的动态In-Context示例选择,这是一个理论上合理的ICL框架,用于Agent任务,它在推理的每个步骤选择最相关的演示。我们的方法通过因果视角将演示知识分解为可转移和不可转移的组成部分,展示了后者如何引入虚假依赖关系,从而损害泛化能力。我们进一步提出了一个逐步选择标准,并正式保证了Agent性能的提升。重要的是,DICE是一个通用的、框架无关的解决方案,可以作为插件模块集成到现有的Agent框架中,而无需任何额外的训练成本。在不同领域的广泛实验证明了我们方法的有效性和通用性,突出了有原则的、上下文感知的演示选择对于鲁棒和高效的LLM Agent的重要性。
🔬 方法详解
问题定义:论文旨在解决大型语言模型Agent中,In-Context Learning (ICL) 效果对示例选择高度敏感的问题。现有方法依赖启发式规则或特定任务设计,缺乏通用的、理论支撑的示例选择标准,导致Agent在复杂推理任务中性能不稳定甚至下降。
核心思路:DICE的核心思路是将示例知识分解为可转移和不可转移两部分。通过因果推断的视角,识别并消除不可转移部分引入的虚假依赖关系,从而选择更有效的示例。这种分解能够提升Agent的泛化能力,使其在不同任务和场景中表现更稳定。
技术框架:DICE作为一个通用的ICL框架,可以集成到现有的Agent框架中。其主要流程包括:1) 知识分解:利用因果推断方法将示例知识分解为可转移和不可转移部分。2) 示例选择:基于分解后的知识,采用逐步选择标准,选择与当前推理步骤最相关的示例。3) In-Context Learning:将选择的示例作为上下文输入到LLM中,进行推理和决策。
关键创新:DICE的关键创新在于其理论基础和通用性。它首次从因果推断的角度分析了ICL中示例选择的问题,并提出了一个通用的、与框架无关的解决方案。与现有方法相比,DICE不依赖于启发式规则或特定任务设计,具有更强的泛化能力和理论支撑。
关键设计:DICE的关键设计在于其逐步选择标准。该标准基于分解后的知识,评估示例与当前推理步骤的相关性。具体而言,它可能涉及到计算示例中可转移知识与当前任务的相似度,并排除包含大量不可转移知识的示例。具体的参数设置和损失函数(如果存在)在论文中未明确说明,属于未知细节。
🖼️ 关键图片
📊 实验亮点
实验结果表明,DICE在多个领域的Agent任务中均取得了显著的性能提升。具体的数据和对比基线在摘要中未给出,但强调了DICE在不同领域均表现出有效性和通用性,证明了有原则的、上下文感知的示例选择对于LLM Agent的重要性。
🎯 应用场景
DICE可广泛应用于各种需要LLM Agent进行复杂推理和决策的场景,例如智能客服、自动化报告生成、代码生成、机器人控制等。通过提升Agent的鲁棒性和效率,DICE能够降低人工干预成本,提高自动化水平,并推动LLM Agent在实际应用中的普及。
📄 摘要(原文)
Large language model-based agents, empowered by in-context learning (ICL), have demonstrated strong capabilities in complex reasoning and tool-use tasks. However, existing works have shown that the effectiveness of ICL is highly sensitive to the choice of demonstrations, with suboptimal examples often leading to unstable or degraded performance. While prior work has explored example selection, including in some agentic or multi-step settings, existing approaches typically rely on heuristics or task-specific designs and lack a general, theoretically grounded criterion for what constitutes an effective demonstration across reasoning steps. Therefore, it is non-trivial to develop a principled, general-purpose method for selecting demonstrations that consistently benefit agent performance. In this paper, we address this challenge with DICE, Dynamic In-Context Example Selection for LLM Agents, a theoretically grounded ICL framework for agentic tasks that selects the most relevant demonstrations at each step of reasoning. Our approach decomposes demonstration knowledge into transferable and non-transferable components through a causal lens, showing how the latter can introduce spurious dependencies that impair generalization. We further propose a stepwise selection criterion with a formal guarantee of improved agent performance. Importantly, DICE is a general, framework-agnostic solution that can be integrated as a plug-in module into existing agentic frameworks without any additional training cost. Extensive experiments across diverse domains demonstrate our method's effectiveness and generality, highlighting the importance of principled, context-aware demo selection for robust and efficient LLM agents.