Who Laughs with Whom? Disentangling Influential Factors in Humor Preferences across User Clusters and LLMs

📄 arXiv: 2601.03103v1 📥 PDF

作者: Soichiro Murakami, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura

分类: cs.CL, cs.AI

发布日期: 2026-01-06


💡 一句话要点

通过用户聚类和LLM分析,解耦幽默偏好中的影响因素

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 幽默偏好 用户聚类 大型语言模型 Bradley-Terry-Luce模型 个性化推荐 Persona Prompting

📋 核心要点

  1. 现有幽默评估方法难以处理个体和文化差异导致的幽默偏好异质性问题。
  2. 通过聚类用户并建模集群特定偏好,解耦幽默偏好中的关键影响因素。
  3. 实验表明,LLM的幽默偏好可以被引导至特定用户集群,实现个性化幽默理解。

📝 摘要(中文)

幽默偏好因个体和文化差异而异,这使得使用大型语言模型(LLM)评估幽默变得复杂。本研究通过聚类用户投票日志,并使用Bradley-Terry-Luce模型估计特定集群中可解释偏好因素的权重,从而对日本创意回应游戏Oogiri中幽默偏好的异质性进行建模。通过提示LLM选择更幽默的回应,我们引出了LLM的偏好判断,发现用户集群表现出不同的偏好模式,并且LLM的结果可以类似于特定集群。最后,我们证明通过角色提示,LLM的偏好可以被引导到特定的集群。数据收集和分析脚本将被发布以支持可重复性。

🔬 方法详解

问题定义:论文旨在解决幽默偏好因个体和文化差异而高度异质的问题,这使得利用LLM进行幽默评估变得困难。现有方法无法有效建模和解释这种异质性,导致LLM在幽默理解和生成方面表现不佳。

核心思路:论文的核心思路是通过对用户进行聚类,将具有相似幽默偏好的用户归为一类,然后针对每个用户集群,学习其特定的幽默偏好模型。通过这种方式,可以有效地捕捉和解释幽默偏好的异质性,并指导LLM更好地理解和生成幽默内容。

技术框架:整体框架包含以下几个主要步骤:1) 数据收集:收集Oogiri游戏的用户投票日志,记录用户对不同回应的偏好。2) 用户聚类:使用聚类算法(具体算法未知)将用户划分为不同的集群,每个集群代表一种特定的幽默偏好类型。3) 偏好建模:使用Bradley-Terry-Luce模型为每个集群估计可解释偏好因素的权重。这些因素可能包括回应的创造性、相关性、惊喜程度等。4) LLM偏好诱导:通过提示LLM选择更幽默的回应,并分析LLM的偏好模式。5) Persona Prompting:通过角色提示,引导LLM模拟特定用户集群的幽默偏好。

关键创新:论文的关键创新在于将用户聚类与偏好建模相结合,有效地捕捉和解释了幽默偏好的异质性。此外,通过Persona Prompting,实现了对LLM幽默偏好的个性化控制,使其能够更好地理解和生成符合特定用户群体偏好的幽默内容。

关键设计:论文使用了Bradley-Terry-Luce模型来估计集群特定的偏好权重。具体参数设置未知。Persona Prompting的具体实现方式未知,但其核心思想是通过提供特定的角色描述,引导LLM模拟该角色的幽默偏好。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,不同的用户集群表现出显著不同的幽默偏好模式。通过Persona Prompting,可以有效地引导LLM模拟特定用户集群的幽默偏好。具体性能数据未知,但研究表明LLM的幽默理解能力可以通过这种方式得到显著提升。

🎯 应用场景

该研究成果可应用于个性化推荐系统,根据用户幽默偏好推荐更符合其口味的内容。此外,还可以用于提升LLM在幽默生成方面的能力,使其能够生成更具个性化和针对性的幽默内容,例如在聊天机器人或社交媒体应用中。

📄 摘要(原文)

Humor preferences vary widely across individuals and cultures, complicating the evaluation of humor using large language models (LLMs). In this study, we model heterogeneity in humor preferences in Oogiri, a Japanese creative response game, by clustering users with voting logs and estimating cluster-specific weights over interpretable preference factors using Bradley-Terry-Luce models. We elicit preference judgments from LLMs by prompting them to select the funnier response and found that user clusters exhibit distinct preference patterns and that the LLM results can resemble those of particular clusters. Finally, we demonstrate that, by persona prompting, LLM preferences can be directed toward a specific cluster. The scripts for data collection and analysis will be released to support reproducibility.