Large Language Model Can Be a Foundation for Hidden Rationale-Based Retrieval
作者: Luo Ji, Feixiang Guo, Teng Chen, Qingqing Gu, Xiaoyu Wang, Ningyuan Xi, Yihong Wang, Peng Yu, Yue Zhao, Hongyang Lei, Zhonglin Jiang, Yong Chen
分类: cs.IR, cs.CL, cs.LG
发布日期: 2024-12-21 (更新: 2025-04-09)
备注: 10 pages, 3 figures, ECIR 2025
🔗 代码/项目: GITHUB
💡 一句话要点
提出RaHoRe框架,利用大语言模型解决基于隐藏推理的检索任务。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大语言模型 信息检索 隐藏推理 指令微调 直接偏好优化
📋 核心要点
- 现有检索方法主要针对事实检索,依赖查询和文档的语义相似性,无法处理需要推理的隐藏关联。
- RaHoRe框架利用指令微调的LLM,将检索任务转化为二元选择题生成任务,并通过DPO进行优化。
- 在ESC数据集上的实验表明,RaHoRe在零样本和微调设置下均优于现有检索方法,验证了LLM在复杂检索任务中的潜力。
📝 摘要(中文)
本文提出并研究了一种更具挑战性的检索任务,即隐藏推理检索。在该任务中,查询和文档在语义上并不相似,但可以通过推理链、逻辑关系或经验推断来建立联系。为了解决这个问题,本文提出了一种基于指令微调的大语言模型(LLM)和交叉编码器架构的解决方案。为了进一步增强基于LLM的检索器,本文设计了一种特殊的指令,将检索任务转化为生成任务,通过提示LLM回答二元选择题。该模型可以使用直接偏好优化(DPO)进行微调。该框架还针对计算效率进行了优化,且不影响性能。本文将该检索框架命名为RaHoRe,并在情感支持对话(ESC)数据集上验证了其零样本和微调性能优于以往的检索工作。研究表明,LLM有潜力成为更广泛检索任务的基础。代码、模型和数据集已开源。
🔬 方法详解
问题定义:论文旨在解决隐藏推理检索问题,即查询和文档之间不存在明显的语义相似性,但存在需要推理、逻辑关系或经验知识才能建立的关联。现有检索方法主要关注事实检索,依赖于查询和文档的直接语义匹配,无法有效处理此类问题。这限制了检索系统在需要更深层次理解和推理的场景中的应用。
核心思路:论文的核心思路是将隐藏推理检索任务转化为一个生成任务,利用大语言模型的推理能力来建立查询和文档之间的关联。通过设计特定的指令,提示LLM生成一个二元选择题,判断文档是否与查询相关。这种方法将检索问题转化为一个更适合LLM处理的形式,使其能够利用其预训练的知识和推理能力。
技术框架:RaHoRe框架主要包含以下几个步骤:1) 使用指令微调的LLM作为基础检索器,该LLM采用交叉编码器架构,能够同时处理查询和文档。2) 设计特定的指令,将检索任务转化为二元选择题生成任务。例如,指令可以提示LLM生成一个问题:“文档是否提供了对查询的合理支持?”,并提供“是”或“否”两个选项。3) 使用直接偏好优化(DPO)对LLM进行微调,使其能够更好地区分相关和不相关的文档。4) 为了提高计算效率,框架进行了优化,确保在不损失性能的前提下,能够快速检索。
关键创新:论文的关键创新在于将检索任务转化为生成任务,并利用LLM的推理能力来解决隐藏推理检索问题。与传统的基于语义相似性的检索方法不同,RaHoRe能够通过推理链、逻辑关系或经验知识来建立查询和文档之间的关联。此外,使用DPO进行微调也是一个重要的创新点,能够有效地提高模型的性能。
关键设计:指令的设计是RaHoRe框架的关键。指令需要清晰明确,能够引导LLM生成正确的二元选择题。DPO损失函数用于优化LLM,使其能够更好地区分相关和不相关的文档。交叉编码器架构允许模型同时处理查询和文档,从而更好地捕捉它们之间的关系。为了提高计算效率,可以采用一些优化技术,例如减少LLM的参数量或使用更高效的推理算法。
🖼️ 关键图片
📊 实验亮点
实验结果表明,RaHoRe在情感支持对话(ESC)数据集上取得了显著的性能提升。在零样本设置下,RaHoRe优于现有的检索方法。经过DPO微调后,RaHoRe的性能进一步提升,表明该框架能够有效地利用LLM的推理能力来解决隐藏推理检索问题。具体的性能数据和对比基线在论文中详细给出。
🎯 应用场景
RaHoRe框架可应用于情感支持对话、问题回答、信息推荐等领域。在情感支持对话中,可以检索出能够提供有效支持的回复。在问题回答中,可以检索出与问题相关的、但表面上不相似的文档。在信息推荐中,可以发现用户潜在感兴趣的内容。该研究有助于提升检索系统的智能化水平,使其能够更好地理解用户的需求并提供更精准的信息。
📄 摘要(原文)
Despite the recent advancement in Retrieval-Augmented Generation (RAG) systems, most retrieval methodologies are often developed for factual retrieval, which assumes query and positive documents are semantically similar. In this paper, we instead propose and study a more challenging type of retrieval task, called hidden rationale retrieval, in which query and document are not similar but can be inferred by reasoning chains, logic relationships, or empirical experiences. To address such problems, an instruction-tuned Large language model (LLM) with a cross-encoder architecture could be a reasonable choice. To further strengthen pioneering LLM-based retrievers, we design a special instruction that transforms the retrieval task into a generative task by prompting LLM to answer a binary-choice question. The model can be fine-tuned with direct preference optimization (DPO). The framework is also optimized for computational efficiency with no performance degradation. We name this retrieval framework by RaHoRe and verify its zero-shot and fine-tuned performance superiority on Emotional Support Conversation (ESC), compared with previous retrieval works. Our study suggests the potential to employ LLM as a foundation for a wider scope of retrieval tasks. Our codes, models, and datasets are available on https://github.com/flyfree5/LaHoRe.