SPAR: Scholar Paper Retrieval with LLM-based Agents for Enhanced Academic Search

📄 arXiv: 2507.15245v1 📥 PDF

作者: Xiaofeng Shi, Yuduo Li, Qian Kou, Longbin Yu, Jinxin Xie, Hua Zhou

分类: cs.IR, cs.AI

发布日期: 2025-07-21

🔗 代码/项目: GITHUB


💡 一句话要点

SPAR:基于LLM Agent的学术论文检索框架,提升学术搜索效果

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 学术论文检索 大型语言模型 多Agent系统 查询分解 查询演化

📋 核心要点

  1. 现有学术文献检索系统依赖于僵化的流程,推理能力有限,难以应对复杂查询。
  2. SPAR采用多Agent框架,通过RefChain进行查询分解和演化,增强搜索的灵活性和有效性。
  3. 实验表明,SPAR在AutoScholar和SPARBench上均显著优于现有基线,F1值分别提升高达56%和23%。

📝 摘要(中文)

本文提出SPAR,一个多Agent框架,利用基于RefChain的查询分解和查询演化,以实现更灵活和有效的学术文献检索。为了方便系统评估,作者构建了一个具有专家标注相关性标签的具有挑战性的基准测试集SPARBench。实验结果表明,SPAR显著优于强大的基线模型,在AutoScholar上实现了高达+56%的F1提升,在SPARBench上实现了高达+23%的F1提升。SPAR和SPARBench共同为推进学术检索研究提供了一个可扩展、可解释和高性能的基础。

🔬 方法详解

问题定义:现有学术论文检索系统通常采用固定的检索流程,缺乏灵活的查询分解和演化能力,难以处理复杂的学术搜索需求。这些系统在理解用户意图、细化搜索目标以及整合多源信息方面存在局限性,导致检索结果的相关性和准确性不高。

核心思路:SPAR的核心思路是利用大型语言模型(LLMs)的强大推理能力,构建一个多Agent协作框架。该框架通过将复杂的查询分解为更小的、可管理的子查询,并利用RefChain进行迭代式的查询演化,从而更准确地捕捉用户的搜索意图,并提高检索结果的质量。

技术框架:SPAR框架主要包含以下几个模块:1) 查询分解Agent:负责将用户输入的复杂查询分解为多个子查询,每个子查询关注查询的不同方面。2) 查询演化Agent:利用RefChain机制,根据已检索到的论文信息,迭代地优化和细化子查询,以更准确地捕捉用户的搜索意图。3) 检索Agent:负责根据子查询从学术数据库中检索相关论文。4) 排序Agent:对检索到的论文进行排序,并返回最终的检索结果。

关键创新:SPAR的关键创新在于其多Agent协作框架和基于RefChain的查询演化机制。多Agent框架允许将复杂的搜索任务分解为多个独立的子任务,并由不同的Agent并行处理,从而提高了搜索效率和灵活性。RefChain机制则允许系统根据已检索到的信息动态地调整搜索策略,从而更准确地捕捉用户的搜索意图。

关键设计:SPAR框架中,每个Agent都由一个大型语言模型驱动。查询分解Agent和查询演化Agent使用不同的prompt来指导LLM的行为。RefChain的迭代次数是一个重要的参数,需要根据具体的搜索任务进行调整。此外,排序Agent可以使用不同的排序算法,例如基于BM25的排序或基于学习的排序方法。

🖼️ 关键图片

img_0

📊 实验亮点

实验结果表明,SPAR在AutoScholar和SPARBench两个数据集上均取得了显著的性能提升。在AutoScholar数据集上,SPAR的F1值比最佳基线提高了56%。在SPARBench数据集上,SPAR的F1值比最佳基线提高了23%。这些结果表明,SPAR能够有效地提高学术论文检索的准确性和效率。

🎯 应用场景

SPAR具有广泛的应用前景,可用于学术研究、科技情报分析、专利检索等领域。它可以帮助研究人员更高效地查找相关文献,跟踪研究进展,发现新的研究方向。此外,SPAR还可以应用于企业的情报分析,帮助企业了解市场动态,制定竞争策略。未来,SPAR可以进一步扩展到其他类型的知识库,例如法律文献、医学文献等,为各行各业提供更智能的知识检索服务。

📄 摘要(原文)

Recent advances in large language models (LLMs) have opened new opportunities for academic literature retrieval. However, existing systems often rely on rigid pipelines and exhibit limited reasoning capabilities. We introduce SPAR, a multi-agent framework that incorporates RefChain-based query decomposition and query evolution to enable more flexible and effective search. To facilitate systematic evaluation, we also construct SPARBench, a challenging benchmark with expert-annotated relevance labels. Experimental results demonstrate that SPAR substantially outperforms strong baselines, achieving up to +56% F1 on AutoScholar and +23% F1 on SPARBench over the best-performing baseline. Together, SPAR and SPARBench provide a scalable, interpretable, and high-performing foundation for advancing research in scholarly retrieval. Code and data will be available at: https://github.com/xiaofengShi/SPAR