Practicing with Language Models Cultivates Human Empathic Communication

📄 arXiv: 2603.15245v1 📥 PDF

作者: Aakriti Kumar, Nalin Poungpeth, Diyi Yang, Bruce Lambert, Matthew Groh

分类: cs.CL, cs.HC

发布日期: 2026-03-16


💡 一句话要点

利用语言模型训练提升人类共情沟通能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 共情沟通 大型语言模型 个性化反馈 人机交互 心理辅导

📋 核心要点

  1. 人类在表达共情方面存在困难,而大型语言模型在生成共情回复方面表现出色,但人们对AI的共情回复接受度较低。
  2. 构建实验平台,让人类向模拟困境的LLM提供共情支持,并利用LLM提供个性化反馈,提升参与者的共情沟通能力。
  3. 实验表明,LLM个性化反馈能有效提升参与者共情沟通模式与规范性模式的对齐程度,并揭示了“沉默共情效应”。

📝 摘要(中文)

共情是人际关系的核心,但人们常常难以有效地表达共情。在双盲评估中,大型语言模型(LLM)生成的回复通常被认为比人类撰写的回复更具共情能力。然而,当回复被归因于AI时,接受者会感到不如归因于人类时那样被倾听和认可。为了探究并解决共情沟通技巧方面的差距,我们构建了一个名为“Lend an Ear”的实验对话平台,参与者需要在其中向扮演个人和工作烦恼角色的LLM提供共情支持。通过968名参与者与其LLM对话伙伴之间进行的2904次文本对话,共计33938条消息,我们推导出了自然对话中地道的共情表达方式的数据驱动分类法。基于一项预先注册的随机实验,我们提供的证据表明,一个简短的LLM辅导干预,提供关于如何有效沟通共情的个性化反馈,相对于对照组和接受基于视频但非个性化反馈的组,显著提高了参与者的沟通模式与规范性共情沟通模式的对齐程度。此外,我们发现了人们感受到共情但系统性地未能表达出来的“沉默共情效应”的证据。尽管如此,参与者可靠地将符合规范性共情沟通标准的回复识别为更能表达共情。总之,这些结果促进了对共情如何表达和被重视的科学理解,并展示了一种可扩展的、基于AI的干预措施,用于支持和培养共情。

🔬 方法详解

问题定义:论文旨在解决人类在共情沟通中存在的不足,即人们常常难以有效地表达共情,导致人际关系受阻。现有方法,例如传统的心理辅导或培训,通常成本高昂且难以规模化。此外,人们可能存在“沉默共情效应”,即内心感受到共情,但无法将其有效表达出来。

核心思路:论文的核心思路是利用大型语言模型(LLM)的强大生成能力和个性化反馈机制,创建一个可扩展的、基于AI的共情沟通训练平台。通过让人类与模拟困境的LLM进行对话,并接受LLM提供的个性化反馈,从而提升人类的共情沟通技巧。这种方法旨在弥合人类共情表达能力与LLM生成能力之间的差距。

技术框架:该研究的技术框架主要包含以下几个部分: 1. 实验平台“Lend an Ear”:构建一个在线对话平台,参与者可以在该平台上与扮演特定角色的LLM进行文本对话。 2. LLM角色扮演:LLM被训练成能够模拟个人和工作场所中遇到的各种困境,并以自然的方式与参与者进行对话。 3. 个性化反馈机制:LLM根据参与者的对话内容,提供个性化的共情沟通反馈,指导参与者如何更有效地表达共情。 4. 数据分析与评估:收集参与者的对话数据,并进行数据分析,以评估LLM干预的效果,并提取自然对话中地道的共情表达方式。

关键创新:该研究的关键创新点在于: 1. 利用LLM进行个性化共情沟通训练:将LLM应用于共情沟通训练,提供了一种可扩展且低成本的解决方案。 2. 数据驱动的共情表达分类法:通过分析大量的对话数据,构建了一个自然对话中地道的共情表达方式的分类法。 3. 揭示“沉默共情效应”:发现了人们感受到共情但未能有效表达出来的现象,并提出了相应的干预措施。

关键设计:研究中关键的设计包括: 1. LLM的选择与训练:选择合适的LLM,并对其进行微调,使其能够胜任角色扮演和个性化反馈的任务。 2. 反馈机制的设计:设计有效的反馈机制,确保反馈内容能够准确地指导参与者提升共情沟通技巧。 3. 实验设计:采用预先注册的随机实验设计,确保实验结果的可靠性。 4. 评估指标:使用多种评估指标,包括参与者的沟通模式与规范性模式的对齐程度、参与者对共情表达的识别能力等。

📊 实验亮点

实验结果表明,接受LLM个性化反馈的参与者,其共情沟通模式与规范性模式的对齐程度显著提高,优于对照组和接受视频反馈的组。此外,研究揭示了“沉默共情效应”,并发现参与者能够可靠地识别出符合规范性共情沟通标准的回复,表明人们具备识别共情表达的能力。

🎯 应用场景

该研究成果可应用于心理咨询、客户服务、团队建设等领域,提升人际沟通质量。通过AI辅助,可以大规模、低成本地提升人们的共情能力,改善社会关系,构建更和谐的社会。未来,该技术可集成到各种社交平台和在线教育系统中,实现更广泛的应用。

📄 摘要(原文)

Empathy is central to human connection, yet people often struggle to express it effectively. In blinded evaluations, large language models (LLMs) generate responses that are often judged more empathic than human-written ones. Yet when a response is attributed to AI, recipients feel less heard and validated than when comparable responses are attributed to a human. To probe and address this gap in empathic communication skill, we built Lend an Ear, an experimental conversation platform in which participants are asked to offer empathic support to an LLM role-playing personal and workplace troubles. From 33,938 messages spanning 2,904 text-based conversations between 968 participants and their LLM conversational partners, we derive a data-driven taxonomy of idiomatic empathic expressions in naturalistic dialogue. Based on a pre-registered randomized experiment, we present evidence that a brief LLM coaching intervention offering personalized feedback on how to effectively communicate empathy significantly boosts alignment of participants' communication patterns with normative empathic communication patterns relative to both a control group and a group that received video-based but non-personalized feedback. Moreover, we find evidence for a silent empathy effect that people feel empathy but systematically fail to express it. Nonetheless, participants reliably identify responses aligned with normative empathic communication criteria as more expressive of empathy. Together, these results advance the scientific understanding of how empathy is expressed and valued and demonstrate a scalable, AI-based intervention for scaffolding and cultivating it.