Chinchunmei at SemEval-2025 Task 11: Boosting the Large Language Model's Capability of Emotion Perception using Contrastive Learning
作者: Tian Li, Yujian Sun, Huizhi Liang
分类: cs.CL
发布日期: 2025-07-21
期刊: Association for Computational Linguistics, Proceedings of the 19th International Workshop on Semantic Evaluation (SemEval-2025), 319-330
💡 一句话要点
利用对比学习增强大语言模型的情感感知能力,应用于SemEval-2025情感检测任务。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 情感检测 对比学习 大语言模型 跨语言 自然语言处理
📋 核心要点
- 现有情感识别方法难以有效处理情感表达的多样性和复杂背景变化,导致跨语言情感识别性能受限。
- 论文提出结合基于样本和基于生成的对比学习方法,提升模型区分情感细微差异的能力,从而提高情感识别的准确性。
- 实验结果表明,该方法在SemEval-2025情感检测任务中取得了优异成绩,尤其在多种语言上表现出色。
📝 摘要(中文)
本文介绍了Chinchunmei团队在SemEval-2025 Task 11(基于文本的情感检测)上的工作,该任务涵盖28种语言的情感识别挑战。比赛鼓励研究者探索更先进的方法来应对情感表达的多样性和背景变化带来的挑战,包含多标签分类(Track A)和情感强度预测(Track B)两个赛道,覆盖愤怒、恐惧、喜悦、悲伤、惊讶和厌恶六种情感类别。本文系统地探索了两种对比学习方法的优势:基于样本的对比学习(对比推理校准)和基于生成的对比学习(DPO、SimPO)。基于样本的对比方法通过比较两个样本来训练模型,以生成更可靠的预测。基于生成的对比方法训练模型区分正确和错误的生成结果,从而优化其预测。所有模型均基于LLaMa3-Instruct-8B进行微调。该系统在英语的Track A中获得第9名,在Track B中获得第6名,并在其他语言中名列前茅。
🔬 方法详解
问题定义:SemEval-2025 Task 11旨在解决跨语言情感检测问题,现有方法在处理情感表达多样性和背景变化时存在不足,导致模型泛化能力较差,尤其是在资源匮乏的语言上表现不佳。该任务包含多标签分类和情感强度预测两个子任务,需要模型准确识别文本中蕴含的多种情感及其强度。
核心思路:论文的核心思路是利用对比学习增强大语言模型的情感感知能力。通过对比学习,模型能够更好地区分相似但情感不同的样本,从而提高情感识别的准确性和鲁棒性。具体而言,论文探索了基于样本和基于生成的两种对比学习方法,旨在从不同角度提升模型的情感理解能力。
技术框架:整体框架基于LLaMa3-Instruct-8B大语言模型,并在此基础上进行微调。主要包含两个阶段:首先,使用基于样本的对比学习方法(Contrastive Reasoning Calibration)训练模型,通过比较不同样本之间的情感差异来提高模型的判别能力。然后,使用基于生成的对比学习方法(DPO、SimPO)训练模型,使其能够区分正确和错误的生成结果,从而优化情感预测。
关键创新:论文的关键创新在于将基于样本和基于生成的对比学习方法相结合,应用于跨语言情感检测任务。这种组合方式能够充分利用两种对比学习方法的优势,从而更有效地提升模型的情感感知能力。此外,论文还探索了不同的对比学习策略,并针对情感检测任务进行了优化。
关键设计:在基于样本的对比学习中,论文采用了Contrastive Reasoning Calibration方法,通过构建正负样本对来训练模型。正样本对包含具有相似情感的样本,而负样本对包含具有不同情感的样本。模型的目标是最大化正样本对之间的相似度,同时最小化负样本对之间的相似度。在基于生成的对比学习中,论文采用了DPO和SimPO方法,通过比较模型生成的不同情感标签的概率分布来训练模型。模型的目标是最大化正确情感标签的概率,同时最小化错误情感标签的概率。损失函数的设计旨在平衡不同情感类别的权重,从而避免模型偏向于某些情感类别。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在SemEval-2025 Task 11中取得了显著成果。在英语的Track A(多标签分类)中获得第9名,在Track B(情感强度预测)中获得第6名。更重要的是,该方法在其他语言上的表现也名列前茅,证明了其良好的跨语言泛化能力。这些结果表明,对比学习能够有效提升大语言模型的情感感知能力。
🎯 应用场景
该研究成果可应用于情感分析、舆情监控、智能客服等领域。通过提高机器对文本情感的理解能力,可以更准确地分析用户反馈、预测市场趋势、提供个性化服务,具有重要的商业价值和社会意义。未来,该方法有望扩展到其他自然语言处理任务,如文本摘要、机器翻译等。
📄 摘要(原文)
The SemEval-2025 Task 11, Bridging the Gap in Text-Based Emotion Detection, introduces an emotion recognition challenge spanning over 28 languages. This competition encourages researchers to explore more advanced approaches to address the challenges posed by the diversity of emotional expressions and background variations. It features two tracks: multi-label classification (Track A) and emotion intensity prediction (Track B), covering six emotion categories: anger, fear, joy, sadness, surprise, and disgust. In our work, we systematically explore the benefits of two contrastive learning approaches: sample-based (Contrastive Reasoning Calibration) and generation-based (DPO, SimPO) contrastive learning. The sample-based contrastive approach trains the model by comparing two samples to generate more reliable predictions. The generation-based contrastive approach trains the model to differentiate between correct and incorrect generations, refining its prediction. All models are fine-tuned from LLaMa3-Instruct-8B. Our system achieves 9th place in Track A and 6th place in Track B for English, while ranking among the top-tier performing systems for other languages.