DEO: Training-Free Direct Embedding Optimization for Negation-Aware Retrieval

📄 arXiv: 2603.09185v1 📥 PDF

作者: Taegyeong Lee, Jiwon Park, Seunghyun Hwang, JooYoung Jang

分类: cs.CL

发布日期: 2026-03-10


💡 一句话要点

提出DEO:一种免训练的直接嵌入优化方法,用于处理包含否定信息的检索任务。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 否定感知检索 免训练方法 直接嵌入优化 对比学习 多模态检索

📋 核心要点

  1. 现有检索方法难以准确处理包含否定和排除信息的查询,导致检索结果不理想。
  2. DEO的核心思想是将查询分解为肯定和否定成分,并通过对比学习优化查询嵌入,从而更好地理解否定信息。
  3. 实验结果表明,DEO在多个数据集上显著优于现有方法,尤其是在处理否定约束的检索任务中。

📝 摘要(中文)

本文提出了一种名为直接嵌入优化(DEO)的免训练方法,用于解决文本和多模态检索中对否定和排除查询的准确检索问题。现有检索方法在处理此类查询时表现不佳。DEO将查询分解为肯定和否定成分,并通过对比目标优化查询嵌入。无需额外的训练数据或模型更新,DEO在NegConstraint数据集上优于基线方法,nDCG@10提升+0.0738,MAP@100提升+0.1028,并且在多模态检索中,Recall@5相比OpenAI CLIP提升+6%。实验结果表明DEO在实际场景中对否定和排除感知检索的有效性。

🔬 方法详解

问题定义:现有检索方法在处理包含否定词或排除性信息的查询时,检索效果往往不佳。例如,用户搜索“不是红色的汽车”时,模型可能无法准确排除红色汽车,导致检索结果不准确。现有方法通常需要额外的嵌入适配或微调,增加了计算成本和部署复杂度。

核心思路:DEO的核心思路是将查询分解为肯定和否定两个部分,然后通过优化查询嵌入,使得嵌入空间中肯定部分靠近相关文档,否定部分远离相关文档。这种方式能够让模型更好地理解查询中的否定信息,从而提高检索的准确性。

技术框架:DEO方法主要包含以下几个步骤:1. 查询分解:将原始查询分解为肯定和否定两个部分。2. 嵌入优化:使用对比损失函数优化查询嵌入,使得肯定部分靠近相关文档,否定部分远离相关文档。3. 检索:使用优化后的查询嵌入进行检索,得到最终的检索结果。整个过程无需额外的训练数据或模型更新。

关键创新:DEO的关键创新在于提出了一种免训练的嵌入优化方法,可以直接优化查询嵌入,而无需对整个模型进行微调。这种方法不仅降低了计算成本,还简化了部署流程。此外,DEO通过将查询分解为肯定和否定两个部分,能够更好地理解查询中的否定信息,从而提高检索的准确性。

关键设计:DEO使用对比损失函数来优化查询嵌入。具体来说,对于每个查询,DEO选择一些正样本(相关文档)和负样本(不相关文档)。然后,DEO优化查询嵌入,使得查询的肯定部分靠近正样本,远离负样本;查询的否定部分远离正样本,靠近负样本。对比损失函数的具体形式可以根据具体任务进行调整。此外,查询分解的方法也需要根据具体任务进行设计。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

DEO在NegConstraint数据集上取得了显著的性能提升,nDCG@10提升+0.0738,MAP@100提升+0.1028。在多模态检索中,Recall@5相比OpenAI CLIP提升+6%。这些结果表明,DEO能够有效地处理包含否定信息的检索任务,并且在实际应用中具有很高的价值。

🎯 应用场景

DEO可应用于各种需要处理否定和排除信息的检索场景,例如电商搜索(“不要带图案的衬衫”)、新闻检索(“不是关于政治的新闻”)和多模态检索(“不是狗的图片”)。该方法能够提高检索的准确性和用户满意度,具有广泛的应用前景。未来,DEO可以进一步扩展到更复杂的否定表达和更广泛的检索任务中。

📄 摘要(原文)

Recent advances in Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG) have enabled diverse retrieval methods. However, existing retrieval methods often fail to accurately retrieve results for negation and exclusion queries. To address this limitation, prior approaches rely on embedding adaptation or fine-tuning, which introduce additional computational cost and deployment complexity. We propose Direct Embedding Optimization (DEO), a training-free method for negation-aware text and multimodal retrieval. DEO decomposes queries into positive and negative components and optimizes the query embedding with a contrastive objective. Without additional training data or model updates, DEO outperforms baselines on NegConstraint, with gains of +0.0738 nDCG@10 and +0.1028 MAP@100, while improving Recall@5 by +6\% over OpenAI CLIP in multimodal retrieval. These results demonstrate the practicality of DEO for negation- and exclusion-aware retrieval in real-world settings.