AI with Emotions: Exploring Emotional Expressions in Large Language Models

📄 arXiv: 2504.14706v2 📥 PDF

作者: Shin-nosuke Ishikawa, Atsushi Yoshino

分类: cs.AI

发布日期: 2025-04-20 (更新: 2025-04-22)

备注: 14 pages, 8 figures, accepted to the Natural Language Processing for Digital Humanities (NLP4DH) workshop at NAACL 2025


💡 一句话要点

探索大语言模型的情感表达能力,为情感AI应用奠定基础

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 情感表达 情感计算 Russell环状模型 情感分析 人机交互

📋 核心要点

  1. 现有AI缺乏情感表达能力,限制了其在人机交互中的应用。
  2. 利用Russell环状模型控制LLM的情感状态,使其能够表达特定情感。
  3. 实验表明,LLM能够根据指定的情感状态生成一致的回答。

📝 摘要(中文)

本文旨在探索当前大型语言模型(LLMs)在输出中表达情感的能力。研究使用多个LLMs(OpenAI GPT、Google Gemini、Meta Llama3和Cohere Command R+)扮演具有特定情感状态的代理,并回答问题。情感状态的定义基于Russell的环状模型,该模型使用唤醒度和效价两个连续参数来表征情感。使用独立于LLMs、基于GoEmotions数据集训练的情感分析模型评估生成的回答。结果表明,生成答案的情感状态与规范一致,证明了LLMs的情感表达能力。这表明基于LLM的AI代理有潜力模拟情感,为基于情感的交互开辟了广泛的应用,例如能够以个性化方式提供建议或意见的顾问。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLMs)是否具备情感表达能力的问题。现有方法缺乏对LLM情感表达能力的系统性评估,并且难以控制LLM的情感输出,限制了其在情感计算领域的应用。

核心思路:论文的核心思路是利用Russell的环状模型来定义和控制LLM的情感状态,并通过情感分析模型来评估LLM生成文本的情感倾向。通过这种方式,可以系统地研究LLM在不同情感状态下的表达能力。

技术框架:整体框架包括以下几个主要步骤:1) 选择LLMs(OpenAI GPT、Google Gemini、Meta Llama3和Cohere Command R+);2) 使用Russell环状模型定义情感状态(通过唤醒度和效价两个参数);3) 指示LLMs扮演具有特定情感状态的代理,并回答问题;4) 使用独立的情感分析模型(基于GoEmotions数据集训练)评估生成文本的情感倾向。

关键创新:论文的关键创新在于:1) 系统性地研究了LLM的情感表达能力;2) 利用Russell环状模型实现了对LLM情感状态的有效控制;3) 使用独立的情感分析模型对LLM的情感输出进行了客观评估。

关键设计:论文的关键设计包括:1) 使用Russell环状模型,该模型使用两个连续参数(唤醒度和效价)来表征情感,易于控制和应用;2) 使用GoEmotions数据集训练情感分析模型,该数据集包含丰富的情感标签,能够准确评估文本的情感倾向;3) 通过prompt engineering,引导LLMs扮演具有特定情感状态的代理。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,LLMs能够根据指定的情感状态生成一致的回答,证明了LLMs具备情感表达能力。情感分析模型对生成文本的情感倾向评估结果与预设情感状态高度吻合,验证了该方法的有效性。该研究为开发情感AI应用奠定了基础。

🎯 应用场景

该研究成果可应用于开发具有情感感知和表达能力的AI代理,例如情感顾问、个性化教育助手、情感支持机器人等。这些应用能够提供更自然、更具同理心的人机交互体验,提升用户满意度和信任度。未来,该研究还可以扩展到其他模态,例如语音和视觉,从而构建更全面的情感AI系统。

📄 摘要(原文)

The human-level performance of Large Language Models (LLMs) across various tasks has raised expectations for the potential of Artificial Intelligence (AI) to possess emotions someday. To explore the capability of current LLMs to express emotions in their outputs, we conducted an experiment using several LLMs (OpenAI GPT, Google Gemini, Meta Llama3, and Cohere Command R+) to role-play as agents answering questions with specified emotional states. We defined the emotional states using Russell's Circumplex model, a well-established framework that characterizes emotions along the sleepy-activated (arousal) and pleasure-displeasure (valence) axes. We chose this model for its simplicity, utilizing two continuous parameters, which allows for better controllability in applications involving continuous changes in emotional states. The responses generated were evaluated using a sentiment analysis model, independent of the LLMs, trained on the GoEmotions dataset. The evaluation showed that the emotional states of the generated answers were consistent with the specifications, demonstrating the LLMs' capability for emotional expression. This indicates the potential for LLM-based AI agents to simulate emotions, opening up a wide range of applications for emotion-based interactions, such as advisors or consultants who can provide advice or opinions with a personal touch.