Filling the Gaps: Selective Knowledge Augmentation for LLM Recommenders

📄 arXiv: 2604.07825v1 📥 PDF

作者: Jaehyun Lee, Sanghwan Jang, SeongKu Kang, Hwanjo Yu

分类: cs.IR, cs.AI

发布日期: 2026-04-09

备注: SIGIR 2026 Accept


💡 一句话要点

提出KnowSA_CKP,通过选择性知识增强提升LLM推荐器的性能和效率

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM推荐系统 知识增强 选择性增强 上下文效率 知识差距

📋 核心要点

  1. 现有LLM推荐器面临“知识差距”问题,即对不同物品的知识掌握程度不均衡,影响推荐效果。
  2. KnowSA_CKP通过评估LLM自身知识水平,选择性地为知识不足的物品补充信息,避免冗余增强。
  3. 实验表明,KnowSA_CKP无需微调即可显著提升推荐准确率和上下文利用效率,适用于多种数据集。

📝 摘要(中文)

大型语言模型(LLM)最近作为强大的免训练推荐器出现。然而,由于预训练期间信息暴露的不平衡,它们对单个项目的知识不可避免地是不均衡的,我们称之为知识差距问题。为了解决这个问题,大多数先前的方法采用了一种朴素的统一增强方法,即为输入提示中的每个项目附加外部信息。然而,这种方法不仅将有限的上下文预算浪费在对知名项目的冗余增强上,而且还会阻碍模型的有效推理。为此,我们提出了KnowSA_CKP(具有比较知识探测的知识感知选择性增强)来缓解知识差距问题。KnowSA_CKP通过评估LLM捕获协同关系的能力来估计其内部知识,并仅在最需要的地方选择性地注入额外信息。通过避免对知名项目的非必要增强,KnowSA_CKP专注于那些从知识补充中获益最多的项目,从而更有效地利用上下文预算。KnowSA_CKP不需要微调步骤,并且在四个真实世界的数据集上始终提高推荐准确性和上下文效率。

🔬 方法详解

问题定义:论文旨在解决LLM推荐器中的“知识差距”问题。由于预训练数据分布不均,LLM对不同物品的知识掌握程度差异很大,导致推荐性能受限。现有方法通常采用统一的知识增强策略,即为所有物品添加额外信息,但这会浪费有限的上下文预算,并可能干扰模型的推理能力。

核心思路:KnowSA_CKP的核心思想是“选择性知识增强”。它首先评估LLM自身对物品的知识水平,然后仅为那些知识不足的物品补充额外信息。通过避免对已知物品的冗余增强,KnowSA_CKP可以更有效地利用上下文预算,并提高推荐性能。

技术框架:KnowSA_CKP包含两个主要模块:知识探测模块和选择性增强模块。知识探测模块通过评估LLM捕获协同关系的能力来估计其内部知识。具体来说,它会生成一些包含目标物品和相关物品的提示,并观察LLM是否能够正确预测它们之间的关系。选择性增强模块根据知识探测模块的评估结果,选择性地为知识不足的物品补充额外信息。这些额外信息可以来自外部知识库,例如物品的描述、属性或用户评论。

关键创新:KnowSA_CKP的关键创新在于其“知识感知”的选择性增强策略。与现有方法不同,KnowSA_CKP不是盲目地为所有物品添加额外信息,而是根据LLM自身的知识水平进行有选择性的增强。这种策略可以更有效地利用上下文预算,并提高推荐性能。

关键设计:KnowSA_CKP使用了一种基于对比学习的知识探测方法。它会生成一些正例和负例,其中正例包含目标物品和相关物品,负例包含目标物品和不相关物品。然后,它训练LLM区分正例和负例,从而评估其捕获协同关系的能力。此外,KnowSA_CKP还使用了一种基于注意力机制的选择性增强方法。它会根据知识探测模块的评估结果,为不同的物品分配不同的注意力权重,从而控制额外信息的注入量。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,KnowSA_CKP在四个真实世界的数据集上始终优于现有的基线方法。例如,在MovieLens-1M数据集上,KnowSA_CKP的Recall@20指标提升了5%以上。此外,KnowSA_CKP还显著提高了上下文效率,即在相同的上下文预算下,可以获得更高的推荐准确率。

🎯 应用场景

KnowSA_CKP可应用于各种基于LLM的推荐系统,尤其是在上下文预算有限或物品知识分布不均的情况下。例如,在电商推荐中,可以利用KnowSA_CKP为冷启动商品或用户交互较少的商品补充信息,提高推荐准确率。该方法还可用于个性化教育、内容推荐等领域,具有广泛的应用前景。

📄 摘要(原文)

Large language models (LLMs) have recently emerged as powerful training-free recommenders. However, their knowledge of individual items is inevitably uneven due to imbalanced information exposure during pretraining, a phenomenon we refer to as knowledge gap problem. To address this, most prior methods have employed a naive uniform augmentation that appends external information for every item in the input prompt. However, this approach not only wastes limited context budget on redundant augmentation for well-known items but can also hinder the model's effective reasoning. To this end, we propose KnowSA_CKP (Knowledge-aware Selective Augmentation with Comparative Knowledge Probing) to mitigate the knowledge gap problem. KnowSA_CKP estimates the LLM's internal knowledge by evaluating its capability to capture collaborative relationships and selectively injects additional information only where it is most needed. By avoiding unnecessary augmentation for well-known items, KnowSA_CKP focuses on items that benefit most from knowledge supplementation, thereby making more effective use of the context budget. KnowSA_CKP requires no fine-tuning step, and consistently improves both recommendation accuracy and context efficiency across four real-world datasets.