Adaptive Graph of Thoughts: Test-Time Adaptive Reasoning Unifying Chain, Tree, and Graph Structures

📄 arXiv: 2502.05078v1 📥 PDF

作者: Tushar Pandey, Ara Ghukasyan, Oktay Goktas, Santosh Kumar Radha

分类: cs.AI, cs.CL

发布日期: 2025-02-07


💡 一句话要点

提出自适应思维图以解决大语言模型推理效率问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 自适应推理 图结构 动态分解 大语言模型 科学推理 多跳检索 数学问题解决

📋 核心要点

  1. 现有方法在推理能力上依赖于固定的提示策略,导致效率低下和计算资源浪费。
  2. AGoT通过动态分解复杂查询为结构化子问题,形成有向无环图,优化推理过程。
  3. 在多种基准测试中,AGoT在科学推理任务上实现了最高46.2%的性能提升,超越了现有方法。

📝 摘要(中文)

大型语言模型(LLMs)展现了出色的推理能力,但其性能高度依赖于提示策略和模型规模。尽管强化学习和微调方法被用于提升推理能力,但这些方法往往需要大量的计算和数据开销。本文提出自适应思维图(AGoT),一种动态的基于图的推理框架,旨在仅在测试时增强LLM的推理能力。AGoT通过递归地将复杂查询分解为结构化的子问题,形成一个动态的有向无环图(DAG),并选择性地扩展需要进一步分析的子问题,从而将链、树和图的优势统一为一个高效的框架。我们在多跳检索、科学推理和数学问题解决等多种基准上验证了该方法,在科学推理任务上实现了最高46.2%的提升,表明动态分解和结构化递归为LLM提供了可扩展且经济高效的推理替代方案。

🔬 方法详解

问题定义:本文旨在解决大型语言模型在推理时效率低下的问题。现有方法如链式思维和树状思维依赖固定步骤,无法灵活应对复杂查询,导致计算资源浪费。

核心思路:AGoT的核心思路是动态分解复杂问题为结构化的子问题,通过构建动态有向无环图(DAG)来优化推理过程。该方法允许模型在测试时根据需要选择性地扩展子问题,从而提高推理效率。

技术框架:AGoT的整体架构包括问题分解、图构建和动态推理三个主要模块。首先,将复杂查询分解为多个子问题;然后,构建一个有向无环图以表示这些子问题之间的依赖关系;最后,根据需要动态扩展子问题进行推理。

关键创新:AGoT的主要创新在于其动态分解和结构化递归的能力,这与现有的固定步骤方法形成鲜明对比。通过这种方式,AGoT能够在推理过程中灵活调整计算资源的分配。

关键设计:在设计上,AGoT采用了动态有向无环图结构,允许根据问题的复杂性和依赖关系灵活扩展子问题。具体的参数设置和损失函数设计尚未详细说明,但其核心在于高效的图结构和递归推理机制。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,AGoT在科学推理任务(GPQA)上实现了最高46.2%的性能提升,表现出与计算密集型强化学习方法相当的效果,并超越了现有的迭代方法。这表明AGoT在推理效率和效果上的显著优势。

🎯 应用场景

该研究的潜在应用领域包括智能问答系统、科学研究辅助工具和复杂问题求解等。通过提高推理效率,AGoT能够为各种应用提供更快速和准确的响应,具有显著的实际价值和未来影响。

📄 摘要(原文)

Large Language Models (LLMs) have demonstrated impressive reasoning capabilities, yet their performance is highly dependent on the prompting strategy and model scale. While reinforcement learning and fine-tuning have been deployed to boost reasoning, these approaches incur substantial computational and data overhead. In this work, we introduce Adaptive Graph of Thoughts (AGoT), a dynamic, graph-based inference framework that enhances LLM reasoning solely at test time. Rather than relying on fixed-step methods like Chain of Thought (CoT) or Tree of Thoughts (ToT), AGoT recursively decomposes complex queries into structured subproblems, forming an dynamic directed acyclic graph (DAG) of interdependent reasoning steps. By selectively expanding only those subproblems that require further analysis, AGoT unifies the strengths of chain, tree, and graph paradigms into a cohesive framework that allocates computation where it is most needed. We validate our approach on diverse benchmarks spanning multi-hop retrieval, scientific reasoning, and mathematical problem-solving, achieving up to 46.2% improvement on scientific reasoning tasks (GPQA) - comparable to gains achieved through computationally intensive reinforcement learning approaches and outperforming state-of-the-art iterative approaches. These results suggest that dynamic decomposition and structured recursion offer a scalable, cost-effective alternative to post-training modifications, paving the way for more robust, general-purpose reasoning in LLMs.