Toward Culturally Aligned LLMs through Ontology-Guided Multi-Agent Reasoning
作者: Wonduk Seo, Wonseok Choi, Junseo Koh, Juhyeon Lee, Hyunjin An, Minhyeong Yu, Jian Park, Qingshan Zhou, Seunghyun Lee, Yi Bu
分类: cs.CL, cs.AI, cs.IR, cs.MA, cs.SI
发布日期: 2026-01-29
备注: 35 pages
💡 一句话要点
提出OG-MAR框架,通过本体引导的多Agent推理提升LLM的文化一致性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 文化一致性 多Agent推理 本体引导 价值观对齐
📋 核心要点
- 现有LLM在文化敏感决策中存在偏差,缺乏结构化价值观表示,导致文化一致性和可解释性不足。
- OG-MAR框架通过构建文化本体和实例化价值观角色Agent,利用多Agent推理来提升文化一致性。
- 实验表明,OG-MAR在文化对齐和鲁棒性方面优于基线方法,并提供了更透明的推理过程。
📝 摘要(中文)
大型语言模型(LLM)越来越多地支持对文化敏感的决策,但由于预训练数据存在偏差以及缺乏结构化的价值观表示,常常表现出不一致性。现有方法可以引导输出,但通常缺乏人口统计学基础,并将价值观视为独立的、非结构化的信号,从而降低了一致性和可解释性。我们提出了OG-MAR,一个本体引导的多Agent推理框架。OG-MAR从世界价值观调查(WVS)中总结受访者特定的价值观,并通过能力问题引出固定分类法上的关系,从而构建全局文化本体。在推理时,它检索本体一致的关系和人口统计学上相似的配置文件,以实例化多个价值观角色Agent,其输出由一个判断Agent综合,该判断Agent强制执行本体一致性和人口统计学邻近性。在四个LLM骨干网络上的区域社会调查基准测试实验表明,OG-MAR在文化一致性和鲁棒性方面优于有竞争力的基线,同时产生更透明的推理轨迹。
🔬 方法详解
问题定义:现有的大型语言模型在处理文化敏感的决策问题时,由于预训练数据偏差以及缺乏对文化价值观的结构化表示,常常表现出文化不一致性。现有的方法虽然可以引导模型的输出,但通常缺乏人口统计学基础,并且将文化价值观视为独立的、非结构化的信号,这导致模型在不同场景下的决策缺乏一致性和可解释性。因此,需要一种能够更好地理解和应用文化价值观的框架,以提高LLM在文化相关任务中的表现。
核心思路:OG-MAR的核心思路是利用文化本体来指导多Agent推理过程。首先,从世界价值观调查(WVS)等数据源中提取个体特定的价值观,并构建一个全局的文化本体,该本体定义了不同文化价值观之间的关系。然后,在推理阶段,根据输入的问题和用户的人口统计学信息,实例化多个具有不同价值观的角色Agent。这些Agent根据其代表的价值观对问题进行推理,并将结果传递给一个判断Agent,该Agent负责综合各个Agent的输出,并确保最终结果与文化本体保持一致,同时考虑人口统计学上的相似性。
技术框架:OG-MAR框架主要包含以下几个模块:1) 价值观提取模块:从WVS等数据源中提取个体特定的价值观。2) 文化本体构建模块:通过能力问题引出固定分类法上的关系,构建全局文化本体,定义不同文化价值观之间的关系。3) Agent实例化模块:根据输入的问题和用户的人口统计学信息,实例化多个具有不同价值观的角色Agent。4) 多Agent推理模块:每个Agent根据其代表的价值观对问题进行推理,生成相应的输出。5) 判断模块:综合各个Agent的输出,并确保最终结果与文化本体保持一致,同时考虑人口统计学上的相似性。
关键创新:OG-MAR的关键创新在于将文化本体引入到多Agent推理框架中,从而实现了对文化价值观的结构化表示和推理。与现有方法相比,OG-MAR能够更好地捕捉不同文化价值观之间的关系,并根据用户的人口统计学信息进行个性化决策。此外,OG-MAR的多Agent架构使得模型的推理过程更加透明和可解释。
关键设计:OG-MAR的关键设计包括:1) 文化本体的构建方法:通过能力问题来自动构建文化本体,从而避免了手动构建本体的繁琐和主观性。2) Agent的实例化方法:根据用户的人口统计学信息和价值观,选择合适的Agent进行实例化,从而实现个性化决策。3) 判断模块的设计:判断模块需要综合考虑各个Agent的输出、文化本体的约束以及人口统计学上的相似性,以生成最终的决策结果。具体的实现细节(如损失函数、网络结构等)在论文中可能没有详细描述,属于未知信息。
🖼️ 关键图片
📊 实验亮点
实验结果表明,OG-MAR在四个LLM骨干网络上的区域社会调查基准测试中,显著提高了文化一致性和鲁棒性,优于现有的基线方法。此外,OG-MAR还提供了更透明的推理轨迹,使得模型的决策过程更加可解释。具体的性能提升数据在论文中给出,此处省略。
🎯 应用场景
OG-MAR框架可应用于各种需要考虑文化因素的决策场景,例如:跨文化交流、国际市场营销、个性化推荐系统、医疗诊断等。通过提高LLM的文化一致性,可以减少文化误解和冲突,提高决策的公平性和有效性。未来,该框架可以进一步扩展到支持更多文化维度和更复杂的决策场景。
📄 摘要(原文)
Large Language Models (LLMs) increasingly support culturally sensitive decision making, yet often exhibit misalignment due to skewed pretraining data and the absence of structured value representations. Existing methods can steer outputs, but often lack demographic grounding and treat values as independent, unstructured signals, reducing consistency and interpretability. We propose OG-MAR, an Ontology-Guided Multi-Agent Reasoning framework. OG-MAR summarizes respondent-specific values from the World Values Survey (WVS) and constructs a global cultural ontology by eliciting relations over a fixed taxonomy via competency questions. At inference time, it retrieves ontology-consistent relations and demographically similar profiles to instantiate multiple value-persona agents, whose outputs are synthesized by a judgment agent that enforces ontology consistency and demographic proximity. Experiments on regional social-survey benchmarks across four LLM backbones show that OG-MAR improves cultural alignment and robustness over competitive baselines, while producing more transparent reasoning traces.