LLM-Powered Preference Elicitation in Combinatorial Assignment

📄 arXiv: 2502.10308v1 📥 PDF

作者: Ermis Soumalias, Yanchen Jiang, Kehang Zhu, Michael Curry, Sven Seuken, David C. Parkes

分类: cs.AI, cs.GT, cs.LG

发布日期: 2025-02-14


💡 一句话要点

提出基于LLM的偏好启发框架,提升组合分配中的资源分配效率

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 偏好启发 组合分配 课程分配 资源分配

📋 核心要点

  1. 传统偏好启发方法依赖迭代查询,耗费大量人力,效率较低。
  2. 利用LLM作为人类代理,通过一次性交互获取偏好,降低人力成本。
  3. 实验表明,该方法在课程分配中可将分配效率提升高达20%。

📝 摘要(中文)

本文研究了使用大型语言模型(LLM)作为人类代理,以简化组合分配中的偏好启发(PE)的潜力。传统的PE方法依赖于迭代查询来捕获偏好,而LLM提供了一种一次性替代方案,从而减少了人为工作量。我们提出了一个LLM代理框架,该框架可以与最先进的基于机器学习的偏好启发方案协同工作。我们的框架处理了LLM引入的新挑战,例如响应可变性和增加的计算成本。我们在经过充分研究的课程分配领域中,通过实验评估了LLM代理相对于人工查询的效率,并研究了成功所需的模型能力。我们发现,我们的方法将分配效率提高了高达20%,并且这些结果在不同的LLM以及报告的质量和准确性差异方面都具有鲁棒性。

🔬 方法详解

问题定义:论文旨在解决组合分配问题中,传统偏好启发方法需要大量人工参与,效率低下的问题。现有方法通过迭代查询用户来获取偏好信息,过程繁琐且耗时,难以应用于大规模场景。

核心思路:论文的核心思路是利用大型语言模型(LLM)作为人类代理,直接从LLM中提取用户的偏好信息。通过精心设计的prompt,LLM能够模拟用户的决策过程,从而减少或替代人工查询,降低偏好启发的成本。

技术框架:该框架包含以下几个主要阶段:1) Prompt设计:设计合适的prompt,引导LLM表达用户的偏好;2) LLM推理:使用LLM对prompt进行推理,生成偏好信息;3) 偏好整合:将LLM生成的偏好信息与现有的基于机器学习的偏好启发方案相结合;4) 分配优化:利用获取的偏好信息,进行组合分配优化,得到最终的分配方案。

关键创新:该论文的关键创新在于将LLM引入到偏好启发过程中,并将其作为人类代理。这与传统的偏好启发方法依赖于人工查询有着本质的区别。此外,该框架还考虑了LLM响应的可变性和计算成本问题,并提出了相应的解决方案。

关键设计:论文中prompt的设计至关重要,需要仔细考虑如何引导LLM准确表达用户的偏好。此外,如何将LLM生成的偏好信息与现有的机器学习模型相结合,也是一个关键的设计点。论文可能还涉及一些超参数的调整,例如LLM的温度参数,以控制生成结果的多样性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,使用LLM代理可以将课程分配的效率提高高达20%。该结果在不同的LLM模型和不同的报告质量和准确性下都表现出鲁棒性。这表明该方法具有较强的泛化能力和实用价值,能够有效降低偏好启发的成本,并提高资源分配的效率。

🎯 应用场景

该研究成果可应用于各种组合分配场景,例如课程分配、宿舍分配、任务分配、资源调度等。通过降低偏好启发的成本,可以更高效地进行资源分配,提高用户满意度,并减少人工干预。未来,该方法还可以扩展到更复杂的决策场景,例如个性化推荐、智能客服等。

📄 摘要(原文)

We study the potential of large language models (LLMs) as proxies for humans to simplify preference elicitation (PE) in combinatorial assignment. While traditional PE methods rely on iterative queries to capture preferences, LLMs offer a one-shot alternative with reduced human effort. We propose a framework for LLM proxies that can work in tandem with SOTA ML-powered preference elicitation schemes. Our framework handles the novel challenges introduced by LLMs, such as response variability and increased computational costs. We experimentally evaluate the efficiency of LLM proxies against human queries in the well-studied course allocation domain, and we investigate the model capabilities required for success. We find that our approach improves allocative efficiency by up to 20%, and these results are robust across different LLMs and to differences in quality and accuracy of reporting.