Silver-Tongued and Sundry: Exploring Intersectional Pronouns with ChatGPT
作者: Takao Fujii, Katie Seaborn, Madeleine Steeds
分类: cs.HC, cs.AI, cs.CL
发布日期: 2024-05-13
备注: Honorable Mention award (top 5%) at CHI '24
期刊: CHI '24: Proceedings of the CHI Conference on Human Factors in Computing Systems (2024), Article No. 511, 1-14
💡 一句话要点
利用ChatGPT探索日语人称代词与交叉身份认同的模拟
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: ChatGPT 人称代词 社会身份 交叉身份 对话智能体
📋 核心要点
- 现有对话系统在模拟社会身份方面存在不足,尤其是在文化背景下身份认同的细微差别难以捕捉。
- 本研究利用日语第一人称代词与社会身份的紧密联系,探索ChatGPT模拟交叉身份认同的可能性。
- 实验表明,通过调整ChatGPT使用的日语人称代词,可以影响用户对其性别、年龄、地域和正式程度等社会身份的感知。
📝 摘要(中文)
本研究探索了大型语言模型ChatGPT模拟社会身份的可能性。通过控制在线实验,研究人员观察了来自日本关东和近畿地区的参与者,在与使用十组不同日语第一人称代词的ChatGPT交互时的感知。研究发现,仅凭代词就能在一定程度上唤起ChatGPT中性别、年龄、地域和正式程度交叉的社会身份认知。这项工作强调了代词使用在社会身份模拟中的重要性,为文化敏感的角色设计提供了一种基于语言的方法,并推进了智能体中交叉身份认同的潜力。
🔬 方法详解
问题定义:论文旨在研究如何使ChatGPT等对话智能体更好地模拟人类的社会身份,特别是考虑到身份认同的交叉性(intersectional identities)。现有方法在模拟社会身份时,往往忽略了文化背景下语言的细微差别,以及不同身份维度之间的相互作用。例如,简单地将ChatGPT设定为“女性”可能无法充分表达不同年龄、地域和语气的女性形象。
核心思路:论文的核心思路是利用日语第一人称代词(如“watashi”、“boku”、“ore”)与社会身份的紧密联系。在日语中,不同的第一人称代词与性别、年龄、地域、社会地位等因素相关联。通过控制ChatGPT使用的代词,研究人员可以操纵用户对其社会身份的感知。这种方法的核心在于将语言作为一种工具,用于塑造和表达智能体的社会身份。
技术框架:该研究采用了一个控制在线实验的设计。实验参与者来自日本的两个地区(关东和近畿),他们与使用不同第一人称代词的ChatGPT进行交互。ChatGPT被预设使用十组不同的第一人称代词组合,每组代词代表不同的社会身份。参与者在与ChatGPT交互后,需要评估他们对ChatGPT社会身份的感知,例如性别、年龄、地域和正式程度。研究人员通过分析参与者的评估结果,来确定不同代词组合对社会身份感知的影响。
关键创新:该研究的关键创新在于将交叉身份认同的概念引入到对话智能体的设计中,并提出了一种基于语言的、文化敏感的方法来实现身份模拟。与以往关注单一身份维度的方法不同,该研究强调了不同身份维度之间的相互作用,例如性别和年龄、地域和正式程度。此外,该研究还提供了一种可量化的方法来评估智能体的社会身份感知,为智能体设计提供了一种新的思路。
关键设计:实验中使用了十组不同的日语第一人称代词组合,这些组合代表了不同的社会身份。选择这些代词组合时,研究人员考虑了性别、年龄、地域和正式程度等因素。实验参与者被随机分配到不同的代词组合组,以避免偏差。研究人员使用问卷调查来收集参与者对ChatGPT社会身份的感知数据,并使用统计方法来分析这些数据。
🖼️ 关键图片
📊 实验亮点
实验结果表明,仅通过改变ChatGPT使用的日语第一人称代词,就能显著影响用户对其社会身份的感知。例如,某些代词组合更容易被认为是年轻女性,而另一些则更容易被认为是年长男性。此外,研究还发现,不同地区的参与者对同一代词组合的感知存在差异,这表明文化背景在社会身份感知中起着重要作用。
🎯 应用场景
该研究成果可应用于开发更具文化敏感性和社会意识的对话智能体。例如,在教育领域,可以利用该方法设计能够模拟不同背景教师的AI助手。在客户服务领域,可以创建能够根据客户的社会身份调整沟通方式的智能客服。此外,该研究还可以为虚拟角色的设计提供指导,使其更具真实感和个性。
📄 摘要(原文)
ChatGPT is a conversational agent built on a large language model. Trained on a significant portion of human output, ChatGPT can mimic people to a degree. As such, we need to consider what social identities ChatGPT simulates (or can be designed to simulate). In this study, we explored the case of identity simulation through Japanese first-person pronouns, which are tightly connected to social identities in intersectional ways, i.e., intersectional pronouns. We conducted a controlled online experiment where people from two regions in Japan (Kanto and Kinki) witnessed interactions with ChatGPT using ten sets of first-person pronouns. We discovered that pronouns alone can evoke perceptions of social identities in ChatGPT at the intersections of gender, age, region, and formality, with caveats. This work highlights the importance of pronoun use for social identity simulation, provides a language-based methodology for culturally-sensitive persona development, and advances the potential of intersectional identities in intelligent agents.