Comparative Analysis of Neural Retriever-Reranker Pipelines for Retrieval-Augmented Generation over Knowledge Graphs in E-commerce Applications

📄 arXiv: 2602.22219 📥 PDF

作者: Teri Rumble, Zbyněk Gazdík, Javad Zarrin, Jagdeep Ahluwalia

分类: cs.IR, cs.AI, cs.CL

发布日期: 2026-02-28


💡 一句话要点

针对电商知识图谱,提出并比较神经检索-重排序RAG流水线,显著提升问答性能。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 检索增强生成 知识图谱 神经检索 交叉编码器 电商应用 自然语言查询 RAG流水线

📋 核心要点

  1. 现有RAG方法在处理结构化知识图谱时,面临着跨图谱扩展检索和保持上下文关系的挑战。
  2. 论文提出了一种基于神经检索-重排序流水线的RAG方法,专门针对电商知识图谱的自然语言查询。
  3. 实验结果表明,该方法在STaRK数据集上显著优于现有基准,Hit@1提升20.4%,MRR提升14.5%。

📝 摘要(中文)

大型语言模型(LLM)的最新进展改变了自然语言处理(NLP),实现了复杂的信息检索和生成任务。检索增强生成(RAG)通过将外部知识源与生成模型集成,增强了事实准确性和上下文基础,成为一项关键创新。虽然RAG在非结构化文本上表现出强大的性能,但其在结构化知识图谱上的应用提出了挑战:跨连接图扩展检索,并在响应生成过程中保持上下文关系。交叉编码器提高了检索精度,但它们与结构化数据的集成仍未得到充分探索。解决这些挑战对于开发在生产环境中运行的领域特定助手至关重要。本研究提出了针对电子商务环境中知识图谱自然语言查询的多个检索器-重排序器流水线的设计和比较评估。使用STaRK半结构化知识库(SKB),一个生产规模的电子商务数据集,我们评估了针对语言查询优化的多个RAG流水线配置。实验结果表明,与已发布的基准相比,性能有了显著提高,Hit@1提高了20.4%,平均倒数排名(MRR)提高了14.5%。这些发现为将领域特定的SKB集成到生成系统提供了一个实用的框架。我们的贡献为部署生产就绪的RAG系统提供了可操作的见解,其影响超越了电子商务,扩展到其他需要从结构化知识库中检索信息的领域。

🔬 方法详解

问题定义:论文旨在解决电商场景下,如何高效地利用知识图谱进行检索增强生成的问题。现有方法在处理结构化知识图谱时,存在检索效率低、无法有效利用图谱结构信息等痛点,导致生成结果准确性和相关性不足。

核心思路:论文的核心思路是构建一个神经检索-重排序流水线,首先使用神经检索器从知识图谱中快速筛选出候选实体和关系,然后使用交叉编码器对候选结果进行重排序,从而提高检索精度,最终将检索结果输入到生成模型中,生成高质量的答案。

技术框架:整体框架包含三个主要模块:1) 神经检索器:用于从知识图谱中检索相关实体和关系;2) 交叉编码器:用于对检索结果进行重排序,提高检索精度;3) 生成模型:用于根据检索结果生成答案。整个流程是,给定一个自然语言查询,首先使用神经检索器检索相关知识,然后使用交叉编码器对检索结果进行排序,最后将排序后的结果输入到生成模型中,生成最终答案。

关键创新:论文的关键创新在于针对电商知识图谱的特点,优化了神经检索器和交叉编码器的设计,使其能够更好地利用图谱结构信息,提高检索精度。此外,论文还提出了一种新的训练方法,可以有效地提高交叉编码器的性能。

关键设计:在神经检索器方面,使用了基于图神经网络的模型,可以有效地捕捉实体和关系之间的依赖关系。在交叉编码器方面,使用了预训练语言模型,并针对电商领域的特点进行了微调。损失函数使用了对比学习损失,可以有效地提高模型的区分能力。具体参数设置和网络结构细节在论文中有详细描述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在STaRK数据集上显著优于现有基准,Hit@1指标提升了20.4%,MRR指标提升了14.5%。这些结果表明,该方法能够有效地提高检索精度和生成质量,为电商知识图谱的自然语言查询提供了一种有效的解决方案。

🎯 应用场景

该研究成果可应用于智能客服、商品推荐、知识问答等电商场景,提升用户体验和运营效率。未来可扩展到其他领域,如金融、医疗等,构建领域知识驱动的智能应用,具有广阔的应用前景和实际价值。

📄 摘要(原文)

Recent advancements in Large Language Models (LLMs) have transformed Natural Language Processing (NLP), enabling complex information retrieval and generation tasks. Retrieval-Augmented Generation (RAG) has emerged as a key innovation, enhancing factual accuracy and contextual grounding by integrating external knowledge sources with generative models. Although RAG demonstrates strong performance on unstructured text, its application to structured knowledge graphs presents challenges: scaling retrieval across connected graphs and preserving contextual relationships during response generation. Cross-encoders refine retrieval precision, yet their integration with structured data remains underexplored. Addressing these challenges is crucial for developing domain-specific assistants that operate in production environments. This study presents the design and comparative evaluation of multiple Retriever-Reranker pipelines for knowledge graph natural language queries in e-Commerce contexts. Using the STaRK Semi-structured Knowledge Base (SKB), a production-scale e-Commerce dataset, we evaluate multiple RAG pipeline configurations optimized for language queries. Experimental results demonstrate substantial improvements over published benchmarks, achieving 20.4% higher Hit@1 and 14.5% higher Mean Reciprocal Rank (MRR). These findings establish a practical framework for integrating domain-specific SKBs into generative systems. Our contributions provide actionable insights for the deployment of production-ready RAG systems, with implications that extend beyond e-Commerce to other domains that require information retrieval from structured knowledge bases.