Hypothesis-Conditioned Query Rewriting for Decision-Useful Retrieval
作者: Hangeol Chang, Changsun Lee, Seungjoon Rho, Junho Yeo, Jong Chul Ye
分类: cs.CL, cs.AI, cs.LG
发布日期: 2026-03-19
💡 一句话要点
提出假设条件查询重写(HCQR)框架,提升RAG在决策型检索任务中的性能。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 检索增强生成 查询重写 决策型检索 假设驱动 医学问答
📋 核心要点
- 现有RAG方法在需要区分选项的决策任务中表现不足,因为它们倾向于检索主题相关而非决策相关的证据。
- HCQR通过从问题和选项中提取假设,并生成针对性查询来寻找支持、区分和验证证据,从而优化检索。
- 实验表明,HCQR在MedQA和MMLU-Med数据集上显著优于传统RAG方法,证明了其有效性。
📝 摘要(中文)
检索增强生成(RAG)通过将生成过程建立在外部、非参数化知识之上,从而改进大型语言模型(LLM)。然而,当任务需要在竞争选项中做出选择时,简单地将生成建立在广泛相关的上下文中通常不足以驱动最终决策。现有的RAG方法通常依赖于单个初始查询,这往往偏向于主题相关性而非决策相关证据,因此检索到的背景信息可能无法区分答案选项。为了解决这个问题,我们提出了一种免训练的预检索框架——假设条件查询重写(HCQR),它将RAG从面向主题的检索重新定向到面向证据的检索。HCQR首先从输入问题和候选选项中推导出一个轻量级的工作假设,然后将检索重写为三个有针对性的查询,以寻求以下证据:(1)支持该假设,(2)将其与竞争性替代方案区分开来,以及(3)验证问题中的显著线索。这种方法使得上下文检索能够更直接地与答案选择对齐,从而允许生成器基于检索到的证据来确认或推翻初始假设。在MedQA和MMLU-Med上的实验表明,HCQR始终优于单查询RAG和重排序/过滤基线,平均准确率分别提高了5.9和3.6个百分点。
🔬 方法详解
问题定义:论文旨在解决检索增强生成(RAG)在需要从多个选项中进行选择的决策型任务中的不足。现有RAG方法通常使用单一查询进行检索,导致检索结果偏向于主题相关性,而忽略了区分不同选项的关键证据,从而影响最终决策的准确性。
核心思路:论文的核心思路是将RAG从面向主题的检索转变为面向证据的检索。通过从问题和候选答案中提取一个工作假设,并基于该假设生成多个针对性的查询,从而更有效地检索到与决策相关的证据。这种方法允许模型基于检索到的证据来验证或推翻初始假设,从而做出更明智的决策。
技术框架:HCQR框架主要包含以下几个步骤:1. 假设生成:从输入问题和候选选项中提取一个轻量级的工作假设。2. 查询重写:基于该假设,生成三个针对性的查询,分别用于:(1)寻找支持该假设的证据;(2)寻找区分该假设与其他选项的证据;(3)验证问题中的关键线索。3. 证据检索:使用重写后的查询从外部知识库中检索相关文档。4. 答案选择:利用检索到的证据,通过大型语言模型(LLM)来确认或推翻初始假设,并选择最佳答案。
关键创新:HCQR的关键创新在于其假设驱动的查询重写机制。与传统的单查询RAG方法不同,HCQR能够根据具体的问题和候选答案动态地生成多个针对性的查询,从而更有效地检索到与决策相关的证据。这种方法能够显著提高RAG在决策型任务中的性能。
关键设计:HCQR是一个免训练的框架,不需要额外的参数设置或损失函数设计。其核心在于查询重写的策略,即如何从问题和候选答案中提取有效的假设,并生成能够准确捕捉决策相关证据的查询。论文中具体使用了启发式规则和简单的模板来生成查询,例如使用“支持[假设]的证据是什么?”、“[假设]与[替代方案]的区别是什么?”等模板。
🖼️ 关键图片
📊 实验亮点
HCQR在MedQA和MMLU-Med数据集上取得了显著的性能提升。在MedQA上,HCQR相比Simple RAG提高了5.9个百分点的平均准确率。在MMLU-Med上,HCQR相比Simple RAG提高了3.6个百分点的平均准确率。实验结果表明,HCQR能够有效地提高RAG在决策型任务中的性能,优于单查询RAG和重排序/过滤等基线方法。
🎯 应用场景
HCQR框架可应用于医疗诊断、法律咨询、金融决策等需要从多个选项中进行选择的领域。通过提供更准确、更具区分性的证据,HCQR能够帮助专业人士做出更明智的决策,提高工作效率和决策质量。未来,该方法还可以扩展到其他需要复杂推理和证据评估的任务中。
📄 摘要(原文)
Retrieval-Augmented Generation (RAG) improves Large Language Models (LLMs) by grounding generation in external, non-parametric knowledge. However, when a task requires choosing among competing options, simply grounding generation in broadly relevant context is often insufficient to drive the final decision. Existing RAG methods typically rely on a single initial query, which often favors topical relevance over decision-relevant evidence, and therefore retrieves background information that can fail to discriminate among answer options. To address this issue, here we propose Hypothesis-Conditioned Query Rewriting (HCQR), a training-free pre-retrieval framework that reorients RAG from topic-oriented retrieval to evidence-oriented retrieval. HCQR first derives a lightweight working hypothesis from the input question and candidate options, and then rewrites retrieval into three targeted queries that seek evidence to: (1) support the hypothesis, (2) distinguish it from competing alternatives, and (3) verify salient clues in the question. This approach enables context retrieval that is more directly aligned with answer selection, allowing the generator to confirm or overturn the initial hypothesis based on the retrieved evidence. Experiments on MedQA and MMLU-Med show that HCQR consistently outperforms single-query RAG and re-rank/filter baselines, improving average accuracy over Simple RAG by 5.9 and 3.6 points, respectively. Code is available at https://anonymous.4open.science/r/HCQR-1C2E.