CoRanking: Collaborative Ranking with Small and Large Ranking Agents
作者: Wenhan Liu, Xinyu Ma, Yutao Zhu, Lixin Su, Shuaiqiang Wang, Dawei Yin, Zhicheng Dou
分类: cs.CL, cs.IR
发布日期: 2025-03-30 (更新: 2025-08-30)
💡 一句话要点
CoRanking:结合大小排序模型的协同排序框架,提升排序效率和效果。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 协同排序 大型语言模型 信息检索 强化学习 排序效率 位置偏差 列表式排序
📋 核心要点
- 大型语言模型在列表式排序中表现出色,但其庞大的参数规模和重复滑动窗口过程导致效率低下。
- CoRanking框架利用小型模型预排序,减少大型语言模型处理的数据量,并通过调整段落顺序缓解位置偏差。
- 实验结果表明,CoRanking在显著降低排序延迟的同时,还能提升排序效果,优于单独使用大型语言模型。
📝 摘要(中文)
本文提出了一种名为CoRanking的协同排序框架,旨在结合小型和大型排序模型,以实现高效且有效的排序。CoRanking首先利用小型重排序模型对所有候选段落进行预排序,将相关的段落置于列表顶部(例如,前20个)。然后,仅对这些排名靠前的段落应用大型语言模型(LLM)列表式重排序器,而不是对整个列表进行重排序,从而显著提高整体排序效率。为了缓解LLM列表式重排序器对输入段落顺序的位置偏差问题,引入了一个通过强化学习训练的段落顺序调整器,该调整器重新排列来自小型重排序器的顶部段落,以符合LLM对段落顺序的偏好。在三个信息检索基准上的大量实验表明,与仅使用LLM列表式重排序器相比,CoRanking显著提高了效率(将排序延迟降低了约70%),同时实现了更好的效果。
🔬 方法详解
问题定义:现有的大型语言模型(LLM)在列表式排序任务中表现优异,但其庞大的参数规模和计算复杂度导致效率低下,难以满足实际应用的需求。直接使用LLM对所有候选文档进行排序会带来巨大的计算开销。
核心思路:CoRanking的核心思想是利用小型模型进行初步筛选,减少需要大型语言模型处理的文档数量,从而提高整体排序效率。同时,考虑到LLM对输入文档顺序的敏感性,引入段落顺序调整器来优化输入顺序,以提升排序效果。
技术框架:CoRanking框架包含三个主要模块:小型重排序器、段落顺序调整器和大型语言模型列表式重排序器。首先,小型重排序器对所有候选段落进行预排序,选出排名靠前的段落。然后,段落顺序调整器根据LLM的偏好重新排列这些段落的顺序。最后,LLM列表式重排序器对调整后的段落列表进行最终排序。
关键创新:CoRanking的关键创新在于协同利用小型和大型排序模型,以及引入段落顺序调整器来缓解LLM的位置偏差问题。与直接使用LLM进行排序相比,CoRanking在保证排序效果的同时显著提高了效率。与仅使用小型模型相比,CoRanking利用LLM提升了排序的准确性。
关键设计:段落顺序调整器通过强化学习进行训练,目标是学习一种策略,使得调整后的段落顺序能够最大化LLM的排序效果。具体而言,可以使用策略梯度方法,将LLM的排序得分作为奖励信号,优化段落顺序调整器的参数。小型重排序器可以使用传统的排序模型,如基于Transformer的模型,并采用交叉熵损失函数进行训练。
🖼️ 关键图片
📊 实验亮点
实验结果表明,CoRanking在三个信息检索基准上均取得了显著的性能提升。与仅使用LLM列表式重排序器相比,CoRanking将排序延迟降低了约70%,同时实现了更好的排序效果。这表明CoRanking在效率和效果之间取得了良好的平衡,具有很强的实用价值。
🎯 应用场景
CoRanking框架可应用于各种需要高效排序的场景,例如搜索引擎、推荐系统和问答系统。通过结合小型和大型排序模型,CoRanking能够在保证排序质量的同时显著提高效率,从而提升用户体验,降低计算成本。该方法尤其适用于资源受限的环境,例如移动设备和边缘计算平台。
📄 摘要(原文)
Large Language Models (LLMs) have demonstrated superior listwise ranking performance. However, their superior performance often relies on large-scale parameters (\eg, GPT-4) and a repetitive sliding window process, which introduces significant efficiency challenges. In this paper, we propose \textbf{CoRanking}, a novel collaborative ranking framework that combines small and large ranking models for efficient and effective ranking. CoRanking first employs a small-size reranker to pre-rank all the candidate passages, bringing relevant ones to the top part of the list (\eg, top-20). Then, the LLM listwise reranker is applied to only rerank these top-ranked passages instead of the whole list, substantially enhancing overall ranking efficiency. Although more efficient, previous studies have revealed that the LLM listwise reranker have significant positional biases on the order of input passages. Directly feed the top-ranked passages from small reranker may result in the sub-optimal performance of LLM listwise reranker. To alleviate this problem, we introduce a passage order adjuster trained via reinforcement learning, which reorders the top passages from the small reranker to align with the LLM's preferences of passage order. Extensive experiments on three IR benchmarks demonstrate that CoRanking significantly improves efficiency (reducing ranking latency by about 70\%) while achieving even better effectiveness compared to using only the LLM listwise reranker.