Multi-LLM Collaborative Search for Complex Problem Solving

📄 arXiv: 2502.18873v1 📥 PDF

作者: Sen Yang, Yafu Li, Wai Lam, Yu Cheng

分类: cs.AI, cs.CL

发布日期: 2025-02-26


💡 一句话要点

提出MoSA:利用多LLM协同搜索解决复杂推理问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多LLM协同 复杂推理 蒙特卡洛树搜索 搜索代理 知识推理

📋 核心要点

  1. 现有LLM在复杂推理任务中面临推理空间大和自然语言歧义的挑战。
  2. MoSA通过多LLM协同,结合独立探索和迭代改进,整合不同推理路径。
  3. 实验表明,MoSA在数学和常识推理任务上优于单代理和其他多代理方法。

📝 摘要(中文)

大型语言模型(LLMs)由于在处理庞大推理空间和自然语言固有歧义方面的局限性,常常难以胜任复杂的推理任务。本文提出了一种名为混合搜索代理(MoSA)的新范式,它利用多个LLM的集体专业知识来增强基于搜索的推理。MoSA通过结合独立探索和LLM之间的迭代改进来整合不同的推理路径,从而缓解了单模型方法的局限性。MoSA以蒙特卡洛树搜索(MCTS)为骨干,使多个代理能够提出和聚合推理步骤,从而提高准确性。在四个推理基准上的全面评估表明,MoSA在单代理和其他多代理基线上实现了持续的性能改进,尤其是在复杂的数学和常识推理任务中。

🔬 方法详解

问题定义:大型语言模型在解决复杂推理问题时,面临着巨大的推理空间和自然语言的固有歧义性。现有的单模型方法难以有效地探索整个推理空间,容易陷入局部最优解,并且对自然语言的理解不够深入,导致推理过程容易出错。

核心思路:MoSA的核心思路是利用多个LLM的集体智慧,通过协同搜索的方式来解决复杂推理问题。每个LLM作为一个独立的搜索代理,负责探索推理空间的不同分支。通过迭代改进和信息共享,这些代理可以相互协作,共同找到最优的推理路径。这种方法可以有效地缓解单模型方法的局限性,提高推理的准确性和效率。

技术框架:MoSA的技术框架基于蒙特卡洛树搜索(MCTS)。MCTS用于指导多个LLM代理的搜索过程。每个代理在MCTS树中进行探索,并根据一定的策略选择下一步的推理步骤。代理之间通过共享MCTS树的信息来进行协作。具体流程包括:1) 初始化MCTS树;2) 每个代理独立探索MCTS树,生成新的推理步骤;3) 评估每个推理步骤的质量;4) 根据评估结果更新MCTS树;5) 重复步骤2-4,直到达到预定的迭代次数或找到最优解。

关键创新:MoSA的关键创新在于将多LLM协同搜索与MCTS相结合。传统的MCTS方法通常只使用一个模型来进行推理,而MoSA则利用多个LLM的优势,提高了搜索的效率和准确性。此外,MoSA还引入了迭代改进机制,使代理之间可以相互学习和协作,从而进一步提高推理性能。

关键设计:MoSA的关键设计包括:1) 代理数量的选择:需要根据问题的复杂度和计算资源进行调整;2) 探索策略的设计:需要平衡探索和利用,以避免陷入局部最优解;3) 评估函数的选择:需要能够准确地评估推理步骤的质量;4) 信息共享机制的设计:需要有效地传递代理之间的信息,以促进协作。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

MoSA在四个推理基准测试中表现出一致的性能提升,尤其是在复杂的数学和常识推理任务中。相较于单代理和其它多代理基线方法,MoSA展现出显著的优势。具体性能数据未知,但论文强调了MoSA在复杂推理任务上的有效性。

🎯 应用场景

MoSA可应用于需要复杂推理的领域,如数学问题求解、常识推理、代码生成、智能问答等。该方法能够提升AI系统在这些领域的性能,使其更有效地解决实际问题。未来,MoSA有望应用于更广泛的领域,例如医疗诊断、金融分析和法律咨询等。

📄 摘要(原文)

Large language models (LLMs) often struggle with complex reasoning tasks due to their limitations in addressing the vast reasoning space and inherent ambiguities of natural language. We propose the Mixture-of-Search-Agents (MoSA) paradigm, a novel approach leveraging the collective expertise of multiple LLMs to enhance search-based reasoning. MoSA integrates diverse reasoning pathways by combining independent exploration with iterative refinement among LLMs, mitigating the limitations of single-model approaches. Using Monte Carlo Tree Search (MCTS) as a backbone, MoSA enables multiple agents to propose and aggregate reasoning steps, resulting in improved accuracy. Our comprehensive evaluation across four reasoning benchmarks demonstrates MoSA's consistent performance improvements over single-agent and other multi-agent baselines, particularly in complex mathematical and commonsense reasoning tasks.