SOLAR: Towards Characterizing Subjectivity of Individuals through Modeling Value Conflicts and Trade-offs
作者: Younghun Lee, Dan Goldwasser
分类: cs.CL
发布日期: 2025-04-17 (更新: 2025-09-25)
备注: Accepted to the Main Conference at EMNLP 2025. 9 pages
💡 一句话要点
SOLAR框架:通过建模价值冲突与权衡,刻画个体主观性
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 主观性建模 价值冲突 道德判断 大型语言模型 社交媒体分析
📋 核心要点
- 现有方法难以充分捕捉个体主观性,尤其是在价值冲突和权衡情境下,导致道德判断推断不准确。
- SOLAR框架通过分析用户文本中的价值冲突和权衡,抽象出个体的主观价值偏好,从而更准确地进行道德判断。
- 实验结果表明,SOLAR框架在整体推断结果和争议情境下的性能均有所提升,并能提供价值偏好解释。
📝 摘要(中文)
大型语言模型(LLM)不仅解决了复杂的推理问题,而且在需要主观决策的任务中表现出卓越的性能。现有研究表明,LLM的生成可以在一定程度上基于主观认知,但探索LLM是否能解释个体层面的主观性尚未得到充分研究。本文旨在刻画社交媒体上个体的主观性,并使用LLM推断他们的道德判断。我们提出了一个框架SOLAR(基于价值抽象的主观认知),该框架通过观察用户生成的文本中的价值冲突和权衡来更好地表示个体的主观认知。实验结果表明,我们的框架提高了整体推断结果以及在有争议情况下的性能。此外,我们定性地表明,SOLAR提供了关于个体价值偏好的解释,这可以进一步解释他们的判断。
🔬 方法详解
问题定义:论文旨在解决如何利用大型语言模型(LLM)更准确地推断个体在社交媒体上的道德判断,尤其是在涉及价值冲突和权衡的情况下。现有方法未能充分捕捉个体主观性,导致推断结果不准确。
核心思路:论文的核心思路是通过建模个体在文本中表达的价值冲突和权衡,抽象出个体的主观价值偏好。这种方法能够更好地理解个体在特定情境下的决策依据,从而提高道德判断推断的准确性。
技术框架:SOLAR框架主要包含以下几个阶段:1) 数据收集:收集用户在社交媒体上发布的文本数据。2) 价值冲突和权衡识别:利用LLM识别文本中存在的价值冲突和权衡。3) 价值偏好抽象:基于识别出的价值冲突和权衡,抽象出个体的主观价值偏好。4) 道德判断推断:利用LLM和抽象出的价值偏好,推断个体的道德判断。
关键创新:SOLAR框架的关键创新在于它能够显式地建模个体在文本中表达的价值冲突和权衡,并将其用于推断个体的道德判断。与现有方法相比,SOLAR框架能够更全面地捕捉个体的主观性,从而提高推断的准确性。
关键设计:论文中使用了预训练的LLM(具体模型未知)作为基础模型,用于识别价值冲突、权衡和进行道德判断推断。价值偏好抽象的具体方法未知,但推测可能涉及对LLM输出的进一步处理和分析。损失函数和网络结构等技术细节在论文摘要中未提及,属于未知信息。
🖼️ 关键图片
📊 实验亮点
实验结果表明,SOLAR框架在道德判断推断任务中取得了显著的性能提升。具体数据未知,但论文强调SOLAR框架在有争议情境下的表现尤为突出,表明其能够更好地捕捉个体在复杂情境下的主观性。
🎯 应用场景
该研究成果可应用于舆情分析、个性化推荐、用户画像构建等领域。通过理解个体的主观价值偏好,可以更准确地预测其行为,从而为企业决策提供支持。此外,该研究还有助于理解社会争议事件的根源,促进社会和谐。
📄 摘要(原文)
Large Language Models (LLMs) not only have solved complex reasoning problems but also exhibit remarkable performance in tasks that require subjective decision making. Existing studies suggest that LLM generations can be subjectively grounded to some extent, yet exploring whether LLMs can account for individual-level subjectivity has not been sufficiently studied. In this paper, we characterize subjectivity of individuals on social media and infer their moral judgments using LLMs. We propose a framework, SOLAR (Subjective Ground with Value Abstraction), that observes value conflicts and trade-offs in the user-generated texts to better represent subjective ground of individuals. Empirical results show that our framework improves overall inference results as well as performance on controversial situations. Additionally, we qualitatively show that SOLAR provides explanations about individuals' value preferences, which can further account for their judgments.