Cultural Value Alignment in Large Language Models: A Prompt-based Analysis of Schwartz Values in Gemini, ChatGPT, and DeepSeek

📄 arXiv: 2505.17112v1 📥 PDF

作者: Robin Segerer

分类: cs.CL

发布日期: 2025-05-21

备注: 15 pages, 1 table, 1 figure


💡 一句话要点

通过提示分析,揭示大型语言模型在施瓦茨价值观上的文化价值对齐差异

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 文化价值观 价值观对齐 施瓦茨价值观框架 提示工程

📋 核心要点

  1. 现有大型语言模型可能存在文化价值观偏差,缺乏对不同文化背景的适应性。
  2. 该研究通过提示工程,分析不同LLM在施瓦茨价值观框架下的价值偏好,揭示文化差异。
  3. 实验表明,DeepSeek在价值观偏好上与西方模型存在差异,反映了训练数据的文化影响。

📝 摘要(中文)

本研究通过分析Gemini、ChatGPT和DeepSeek在施瓦茨价值观框架中的优先级,考察了大型语言模型(LLM)中的文化价值对齐问题。使用包含40个条目的肖像价值观问卷,我们评估了在中文数据上训练的DeepSeek是否表现出与西方模型不同的价值观偏好。贝叶斯序数回归模型的结果表明,所有模型都高度重视自我超越价值观(例如,仁慈、普世性),反映了LLM普遍强调亲社会价值观的趋势。然而,与ChatGPT和Gemini相比,DeepSeek独特地降低了自我提升价值观(例如,权力、成就)的优先级,这与集体主义文化倾向相符。这些发现表明,LLM反映了具有文化背景的偏见,而不是通用的伦理框架。为了解决LLM中的价值不对称问题,我们提出了多视角推理、自我反思反馈和动态情境化。本研究有助于讨论人工智能公平性、文化中立性以及整合多样化道德视角的多元化人工智能对齐框架的需求。

🔬 方法详解

问题定义:本研究旨在解决大型语言模型(LLM)在文化价值观上的对齐问题。现有的LLM通常在西方文化背景下训练,可能存在文化价值观偏差,无法很好地适应其他文化背景。这可能导致LLM在不同文化背景下的应用中产生不公平或不适当的结果。

核心思路:本研究的核心思路是通过提示工程,诱导LLM表达其内在的价值观偏好,并使用施瓦茨价值观框架来量化这些偏好。通过比较不同LLM(包括在中文数据上训练的DeepSeek)的价值观偏好,揭示文化差异。这种方法能够直接评估LLM的价值观倾向,而无需依赖于复杂的行为分析。

技术框架:该研究的技术框架主要包括以下几个步骤:1) 使用施瓦茨肖像价值观问卷(PVQ)生成一系列提示,这些提示旨在诱导LLM表达对不同价值观的偏好。2) 将这些提示输入到不同的LLM(Gemini、ChatGPT和DeepSeek)中,并记录LLM的输出。3) 使用贝叶斯序数回归模型分析LLM的输出,以量化LLM对不同价值观的偏好程度。4) 比较不同LLM的价值观偏好,以揭示文化差异。

关键创新:本研究的关键创新在于使用提示工程来直接评估LLM的价值观偏好。与传统的行为分析方法相比,这种方法更加直接和高效。此外,本研究还首次比较了在不同文化背景下训练的LLM的价值观偏好,揭示了LLM中存在的文化偏差。

关键设计:研究使用了包含40个条目的肖像价值观问卷(PVQ)作为提示的基础。贝叶斯序数回归模型用于分析LLM的输出,该模型能够处理序数数据,并提供对价值观偏好程度的概率估计。研究没有提供具体的损失函数或网络结构信息,因为该研究主要关注的是LLM的输出分析,而不是LLM的训练过程。

📊 实验亮点

实验结果表明,所有模型都高度重视自我超越价值观。然而,DeepSeek与ChatGPT和Gemini相比,更不重视自我提升价值观,这与集体主义文化倾向相符。这些发现表明,LLM反映了具有文化背景的偏见,而不是通用的伦理框架。贝叶斯序数回归模型提供了对价值观偏好程度的概率估计,为文化差异的量化分析提供了依据。

🎯 应用场景

该研究成果可应用于开发更公平、更具文化敏感性的人工智能系统。通过了解LLM的文化价值观偏好,可以采取措施来减轻文化偏差,并确保LLM在不同文化背景下的应用中产生适当的结果。此外,该研究还可以为开发多元化人工智能对齐框架提供参考,促进人工智能伦理和公平性的讨论。

📄 摘要(原文)

This study examines cultural value alignment in large language models (LLMs) by analyzing how Gemini, ChatGPT, and DeepSeek prioritize values from Schwartz's value framework. Using the 40-item Portrait Values Questionnaire, we assessed whether DeepSeek, trained on Chinese-language data, exhibits distinct value preferences compared to Western models. Results of a Bayesian ordinal regression model show that self-transcendence values (e.g., benevolence, universalism) were highly prioritized across all models, reflecting a general LLM tendency to emphasize prosocial values. However, DeepSeek uniquely downplayed self-enhancement values (e.g., power, achievement) compared to ChatGPT and Gemini, aligning with collectivist cultural tendencies. These findings suggest that LLMs reflect culturally situated biases rather than a universal ethical framework. To address value asymmetries in LLMs, we propose multi-perspective reasoning, self-reflective feedback, and dynamic contextualization. This study contributes to discussions on AI fairness, cultural neutrality, and the need for pluralistic AI alignment frameworks that integrate diverse moral perspectives.