Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI

📄 arXiv: 2603.11974v1 📥 PDF

作者: Luca Deck, Simeon Allmendinger, Lucas Müller, Niklas Kühl

分类: cs.AI

发布日期: 2026-03-12

备注: ACM Conference on Fairness, Accountability, and Transparency (ACM FAccT '26)


💡 一句话要点

提出NormCoRe框架,用于在多智能体AI中研究规范,通过翻译人类实验设计实现。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 规范研究 人工智能伦理 实验复制 公平性 行为科学 大型语言模型

📋 核心要点

  1. 现有方法在多智能体AI中研究规范时,常将规范视为对齐或复制的目标,忽略了集体规范动态。
  2. NormCoRe框架通过将人类实验设计转化为MAAI环境,系统研究AI智能体中的规范,弥补了现有研究的不足。
  3. 实验表明,AI智能体的规范判断与人类不同,且受基础模型和角色实例化语言的影响,验证了NormCoRe的有效性。

📝 摘要(中文)

本研究提出了一种新的方法框架——规范性共同基础复制(NormCoRe),旨在系统地将人类受试者实验的设计转化为多智能体人工智能(MAAI)环境。NormCoRe框架基于行为科学、复制研究和先进的MAAI架构,将人类受试者研究的结构层映射到AI智能体研究的设计中,从而能够系统地记录研究设计并分析MAAI中的规范。通过复制一项关于分配正义的开创性实验研究,展示了NormCoRe的效用,在该实验中,参与者在“无知之幕”下协商公平原则。研究表明,AI智能体研究中的规范性判断可能与人类基线不同,并且对基础模型和用于实例化智能体角色的语言选择敏感。该工作为分析MAAI中的规范提供了一条原则性途径,并有助于指导、反思和记录设计选择,尤其是在AI智能体用于自动化或支持以前由人类执行的任务时。

🔬 方法详解

问题定义:现有研究在多智能体AI(MAAI)中研究规范时,通常将规范视为一个需要对齐或复制的目标,而忽略了AI智能体之间复杂的集体规范动态。这种方法隐含地假设了人类受试者和AI智能体之间的等价性,导致对MAAI系统中规范的理解不足。因此,需要一种系统的方法来研究和理解MAAI中规范的形成和演变。

核心思路:NormCoRe的核心思路是通过“翻译”人类受试者实验的设计到MAAI环境中,从而实现对MAAI中规范的系统研究。这种“翻译”包括将人类实验的结构层(例如,实验条件、参与者角色、交互协议等)映射到AI智能体研究的设计中。通过这种方式,可以利用已有的行为科学知识和实验设计原则,来指导MAAI实验的设计和分析。

技术框架:NormCoRe框架包含以下几个主要阶段:1) 人类实验设计分析:详细分析人类受试者实验的设计,识别其关键的结构层。2) MAAI环境设计:基于人类实验的结构层,设计相应的MAAI环境,包括智能体的角色、交互协议、奖励机制等。3) 智能体建模:选择合适的基础模型(例如,大型语言模型)来实例化智能体,并使用适当的语言来定义智能体的角色和行为。4) 实验运行与数据收集:在MAAI环境中运行实验,并收集智能体的行为数据和决策数据。5) 数据分析与比较:分析智能体的行为数据,并与人类受试者的行为数据进行比较,以识别MAAI中规范的特征和差异。

关键创新:NormCoRe的关键创新在于其“复制-通过-翻译”的方法。它不是简单地将人类实验复制到MAAI环境中,而是通过系统地“翻译”人类实验的设计,来确保MAAI实验能够捕捉到人类实验的关键特征,同时考虑到AI智能体的特殊性。这种方法使得研究者能够更有效地研究MAAI中规范的形成和演变,并比较人类和AI智能体之间的规范差异。

关键设计:在NormCoRe框架中,关键的设计选择包括:1) 基础模型的选择:选择合适的基础模型对于实例化智能体的角色和行为至关重要。不同的基础模型可能具有不同的能力和偏见,因此需要根据实验的具体需求进行选择。2) 角色实例化语言:用于定义智能体角色的语言也会影响智能体的行为。需要使用清晰、明确的语言来定义智能体的目标、价值观和行为规则。3) 奖励机制设计:奖励机制是影响智能体行为的重要因素。需要设计合理的奖励机制,以鼓励智能体遵循特定的规范。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

通过复制一项关于分配正义的实验,研究表明AI智能体的规范判断与人类基线存在差异,并且对基础模型和角色实例化语言的选择非常敏感。例如,不同的语言模型和角色描述会导致智能体在公平分配问题上做出不同的决策,这突显了在设计AI系统时考虑这些因素的重要性。

🎯 应用场景

NormCoRe框架可应用于各种涉及多智能体协作和决策的领域,例如资源分配、公平协商、社会治理等。它有助于理解AI系统中的规范形成,指导AI系统的设计,使其更符合人类价值观,并提高AI系统的公平性和透明度。未来,该框架可用于开发更安全、更可靠、更负责任的AI系统。

📄 摘要(原文)

In the late 2010s, the fashion trend NormCore framed sameness as a signal of belonging, illustrating how norms emerge through collective coordination. Today, similar forms of normative coordination can be observed in systems based on Multi-agent Artificial Intelligence (MAAI), as AI-based agents deliberate, negotiate, and converge on shared decisions in fairness-sensitive domains. Yet, existing empirical approaches often treat norms as targets for alignment or replication, implicitly assuming equivalence between human subjects and AI agents and leaving collective normative dynamics insufficiently examined. To address this gap, we propose Normative Common Ground Replication (NormCoRe), a novel methodological framework to systematically translate the design of human subject experiments into MAAI environments. Building on behavioral science, replication research, and state-of-the-art MAAI architectures, NormCoRe maps the structural layers of human subject studies onto the design of AI agent studies, enabling systematic documentation of study design and analysis of norms in MAAI. We demonstrate the utility of NormCoRe by replicating a seminal experimental study on distributive justice, in which participants negotiate fairness principles under a "veil of ignorance". We show that normative judgments in AI agent studies can differ from human baselines and are sensitive to the choice of the foundation model and the language used to instantiate agent personas. Our work provides a principled pathway for analyzing norms in MAAI and helps to guide, reflect, and document design choices whenever AI agents are used to automate or support tasks formerly carried out by humans.