GMTRouter: Personalized LLM Router over Multi-turn User Interactions

📄 arXiv: 2511.08590v1 📥 PDF

作者: Encheng Xie, Yihang Sun, Tao Feng, Jiaxuan You

分类: cs.CL, cs.LG

发布日期: 2025-10-29

备注: Preprint

🔗 代码/项目: GITHUB


💡 一句话要点

GMTRouter:基于多轮用户交互的个性化LLM路由方法

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LLM路由 个性化 多轮交互 异构图 图神经网络

📋 核心要点

  1. 现有LLM路由方法在个性化方面不足,难以捕捉用户与LLM间的复杂交互,且用户偏好数据稀缺、噪声大。
  2. GMTRouter将多轮交互建模为异构图,利用定制消息传递机制,从少量数据中学习用户偏好。
  3. 实验表明,GMTRouter在准确率和AUC上显著优于现有方法,并能快速适应新用户和偏好变化。

📝 摘要(中文)

大型语言模型(LLM)路由在平衡响应质量和计算成本方面表现出强大的能力。由于用户表现出不同的偏好,个性化在LLM路由中越来越受到关注,因为即使是相同的查询也可能需要不同的模型来生成针对个人需求量身定制的响应。然而,现有的方法并非完全个性化,并且常常无法捕捉到特定用户和LLM之间复杂的交互。此外,用户偏好数据通常稀缺、嘈杂且格式不一致,这限制了仅依赖于用户特定数据的方法的有效性。为了解决这些挑战,我们提出了GMTRouter,它将多轮用户-LLM交互表示为一个具有四种节点类型的异构图:用户、LLM、查询和响应,从而保留了交互的丰富关系结构。通过定制的消息传递机制,GMTRouter学会从轻量级归纳图学习框架中的少量数据中捕获用户偏好,从而实现有效的个性化。大量的实验表明,GMTRouter始终优于强大的基线,在多个数据集上实现了0.9%到21.6%的更高准确率和0.006到0.309的更高AUC。更重要的是,我们证明了GMTRouter可以使用少量数据适应新用户和不断变化的偏好,而无需进行大量的微调。GMTRouter的代码已在https://github.com/ulab-uiuc/GMTRouter上公开。

🔬 方法详解

问题定义:论文旨在解决LLM路由中的个性化问题,即如何根据不同用户的偏好,选择最合适的LLM来生成响应。现有方法无法充分捕捉用户与LLM之间的复杂交互,且依赖大量用户数据,而用户数据通常稀疏、噪声大,格式不统一,导致个性化效果不佳。

核心思路:论文的核心思路是将多轮用户-LLM交互建模为异构图,利用图神经网络学习用户偏好。通过图结构,可以有效地捕捉用户、LLM、查询和响应之间的关系,从而更好地理解用户意图和偏好。同时,利用少量数据进行学习,解决数据稀疏问题。

技术框架:GMTRouter的整体框架包括以下几个主要步骤:1) 将多轮用户-LLM交互构建为异构图,节点类型包括用户、LLM、查询和响应。2) 使用图神经网络进行消息传递,学习节点表示,捕捉用户偏好。3) 基于学习到的节点表示,预测用户对不同LLM的偏好得分,选择得分最高的LLM。4) 使用少量数据进行训练,并能快速适应新用户和偏好变化。

关键创新:GMTRouter的关键创新在于:1) 将多轮交互建模为异构图,充分利用了用户、LLM、查询和响应之间的关系。2) 设计了定制的消息传递机制,能够有效地学习用户偏好。3) 采用轻量级的归纳图学习框架,能够从少量数据中学习,并快速适应新用户和偏好变化。与现有方法相比,GMTRouter更注重用户与LLM之间的交互关系,并能更好地处理数据稀疏问题。

关键设计:GMTRouter的关键设计包括:1) 异构图的构建方式,如何定义节点和边的类型,以及如何表示节点和边的特征。2) 消息传递机制的设计,如何选择合适的聚合函数和更新函数,以及如何控制消息传递的范围和深度。3) 损失函数的设计,如何衡量预测偏好得分与真实偏好之间的差距,以及如何加入正则化项防止过拟合。具体的网络结构和参数设置在论文中有详细描述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,GMTRouter在多个数据集上显著优于现有基线方法,准确率提升0.9%到21.6%,AUC提升0.006到0.309。更重要的是,GMTRouter能够使用少量数据适应新用户和不断变化的偏好,无需进行大量的微调,展示了其强大的泛化能力和实用价值。

🎯 应用场景

GMTRouter可应用于各种需要个性化LLM服务的场景,例如智能客服、个性化推荐、教育辅导等。通过根据用户偏好选择合适的LLM,可以提高用户满意度,降低计算成本,并提升LLM服务的整体效率。该研究对于推动LLM在实际应用中的普及具有重要意义。

📄 摘要(原文)

Large Language Model (LLM) routing has demonstrated strong capability in balancing response quality with computational cost. As users exhibit diverse preferences, personalization has attracted increasing attention in LLM routing, since even identical queries may require different models to generate responses tailored to individual needs. However, existing approaches are not fully personalized and often fail to capture the complex interactions between specific users and LLMs. Moreover, user preference data is typically scarce, noisy, and inconsistent in format, which limits the effectiveness of methods that rely solely on user-specific data. To address these challenges, we propose GMTRouter, which represents multi-turn user-LLM interactions as a heterogeneous graph with four node types: user, LLM, query, and response, thereby preserving the rich relational structure of the interaction. Through a tailored message-passing mechanism, GMTRouter learns to capture user preferences from few-shot data within a lightweight inductive graph learning framework, enabling effective personalization. Extensive experiments demonstrate that GMTRouter consistently outperforms strong baselines, achieving 0.9 to 21.6 percent higher accuracy and 0.006 to 0.309 higher AUC across multiple datasets. More importantly, we demonstrate that GMTRouter can adapt to new users and evolving preferences using only few-shot data, without extensive fine-tuning. The code for GMTRouter is publicly available at https://github.com/ulab-uiuc/GMTRouter.