Dual-Enhancement Product Bundling: Bridging Interactive Graph and Large Language Model

📄 arXiv: 2604.14030v1 📥 PDF

作者: Zhe Huang, Peng Wang, Yan Zheng, Sen Song, Longjun Cai

分类: cs.CL, cs.IR

发布日期: 2026-04-15


💡 一句话要点

提出双重增强产品捆绑方法,融合交互图学习与大语言模型,提升电商推荐效果。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 产品捆绑 推荐系统 交互图学习 大型语言模型 图到文本 动态概念绑定 电商

📋 核心要点

  1. 现有产品捆绑推荐方法在处理冷启动商品和利用大型语言模型建模交互图方面存在不足。
  2. 本文提出一种双重增强方法,通过动态概念绑定机制将交互图信息转化为自然语言提示,供LLM理解。
  3. 实验结果表明,该方法在多个基准数据集上显著优于现有方法,提升幅度达到6.3%-26.5%。

📝 摘要(中文)

本文提出了一种双重增强方法,用于解决电商产品捆绑推荐问题。现有方法面临两个挑战:一是协同过滤方法依赖历史交互,难以处理冷启动商品;二是大型语言模型(LLM)缺乏直接建模交互图的能力。为了弥合这一差距,本文融合了交互图学习和基于LLM的语义理解,用于产品捆绑推荐。该方法引入了一种图到文本的范式,利用动态概念绑定机制(DCBM)将图结构转换为自然语言提示。DCBM在将领域特定实体与LLM分词对齐方面发挥着关键作用,从而能够有效地理解组合约束。在三个基准数据集(POG、POG_dense、Steam)上的实验表明,该方法比最先进的基线方法提高了6.3%-26.5%。

🔬 方法详解

问题定义:论文旨在解决电商场景下产品捆绑推荐的问题。现有方法,特别是基于协同过滤的方法,严重依赖历史交互数据,对于新加入的冷启动商品,由于缺乏足够的交互信息,推荐效果不佳。另一方面,虽然大型语言模型(LLM)在语义理解方面表现出色,但它们缺乏直接处理和理解交互图结构的能力,难以有效利用商品之间的关联信息。

核心思路:论文的核心思路是将交互图学习与LLM的语义理解能力相结合,从而克服现有方法的局限性。具体来说,通过将交互图的信息转化为自然语言描述,使得LLM能够理解商品之间的关系和组合约束,从而更好地进行产品捆绑推荐。这种图到文本的转换使得LLM能够利用其强大的语言建模能力来增强推荐效果。

技术框架:整体框架包含以下几个主要步骤:1) 构建商品交互图,节点代表商品,边代表商品之间的交互关系;2) 利用动态概念绑定机制(DCBM)将交互图中的信息转化为自然语言提示;3) 将生成的自然语言提示输入到LLM中,利用LLM的语义理解能力来学习商品之间的关系和组合约束;4) 利用学习到的信息进行产品捆绑推荐。

关键创新:论文最关键的创新点在于提出了动态概念绑定机制(DCBM)。DCBM能够有效地将领域特定的实体(例如商品ID、商品属性)与LLM的分词对齐,从而使得LLM能够更好地理解交互图中的信息。与直接将图结构输入到LLM中相比,DCBM能够更好地利用LLM的语言建模能力,提高推荐效果。

关键设计:DCBM的具体实现细节未知,论文中可能涉及一些关键的参数设置,例如图嵌入的维度、LLM的规模、损失函数的设计等。这些技术细节对于最终的推荐效果至关重要,但具体信息需要参考论文原文。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在三个基准数据集(POG、POG_dense、Steam)上均取得了显著的性能提升,相比于最先进的基线方法,提升幅度达到6.3%-26.5%。这表明该方法能够有效地结合交互图学习和LLM的语义理解能力,从而提高产品捆绑推荐的准确性。

🎯 应用场景

该研究成果可应用于电商平台的商品推荐系统,特别是产品捆绑推荐场景。通过提升推荐的准确性和多样性,可以有效提高用户购买转化率和平台销售额。此外,该方法也可以扩展到其他需要结合图结构和语义理解的推荐场景,例如社交网络中的好友推荐、知识图谱中的实体推荐等。未来,该研究可以进一步探索如何利用更先进的图神经网络和LLM技术来提升推荐效果。

📄 摘要(原文)

Product bundling boosts e-commerce revenue by recommending complementary item combinations. However, existing methods face two critical challenges: (1) collaborative filtering approaches struggle with cold-start items owing to dependency on historical interactions, and (2) LLMs lack inherent capability to model interactive graph directly. To bridge this gap, we propose a dual-enhancement method that integrates interactive graph learning and LLM-based semantic understanding for product bundling. Our method introduces a graph-to-text paradigm, which leverages a Dynamic Concept Binding Mechanism (DCBM) to translate graph structures into natural language prompts. The DCBM plays a critical role in aligning domain-specific entities with LLM tokenization, enabling effective comprehension of combinatorial constraints. Experiments on three benchmarks (POG, POG_dense, Steam) demonstrate 6.3%-26.5% improvements over state-of-the-art baselines.