CMoralEval: A Moral Evaluation Benchmark for Chinese Large Language Models
作者: Linhao Yu, Yongqi Leng, Yufei Huang, Shang Wu, Haixin Liu, Xinmeng Ji, Jiahui Zhao, Jinwang Song, Tingting Cui, Xiaoqing Cheng, Tao Liu, Deyi Xiong
分类: cs.CL, cs.AI
发布日期: 2024-08-19
备注: Accepted by ACL 2024 (Findings)
🔗 代码/项目: GITHUB
💡 一句话要点
提出CMoralEval基准以评估中文大语言模型的道德表现
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 道德评估 中文大语言模型 数据集构建 伦理研究 AI辅助标注
📋 核心要点
- 现有的中文大语言模型在道德评估方面缺乏系统性和标准化的基准,导致其在伦理相关任务中的表现不尽如人意。
- 本文提出了CMoralEval基准,通过多样化和真实的数据来源,构建了一个涵盖显性道德场景和道德困境的道德评估数据集。
- 实验结果显示,CMoralEval对多种中文大语言模型的评估具有挑战性,推动了道德评估领域的研究进展。
📝 摘要(中文)
本文构建了CMoralEval,一个用于评估中文大语言模型(LLM)在伦理相关情境下反应的基准。CMoralEval的数据来源包括讨论中国道德规范的电视节目和来自报纸及学术论文的道德异常案例。我们制定了一个道德分类法和一套基本的道德原则,既根植于传统中国文化,又符合当代社会规范。通过AI辅助实例生成平台,我们高效地构建和标注了包含显性道德场景和道德困境场景的实例,实验结果表明CMoralEval是一个具有挑战性的基准,数据集已公开可用。
🔬 方法详解
问题定义:本文旨在解决中文大语言模型在道德评估中的不足,现有方法缺乏系统性和多样性,无法有效评估模型在伦理情境下的表现。
核心思路:通过构建CMoralEval基准,结合传统文化与现代社会规范,提供一个多样化的道德评估数据集,以便更全面地评估中文LLM的道德反应。
技术框架:CMoralEval的构建包括数据收集、道德分类法的制定、AI辅助实例生成和标注平台的建立,最终形成包含显性和道德困境场景的实例库。
关键创新:CMoralEval的创新在于其道德分类法和实例生成平台,前者结合了传统与现代道德观,后者提高了数据标注的效率和准确性。
关键设计:在数据集构建中,采用了多样化的数据来源和AI辅助工具,确保了数据的真实性和多样性,同时设定了明确的道德原则作为评估标准。
🖼️ 关键图片
📊 实验亮点
实验结果表明,CMoralEval对多种中文大语言模型的评估具有显著挑战性,模型在道德困境场景中的表现普遍低于显性道德场景,显示出道德评估的复杂性和重要性。
🎯 应用场景
CMoralEval的构建为中文大语言模型的道德评估提供了标准化的工具,具有广泛的应用潜力。该基准可以用于教育、社会科学研究以及人工智能伦理等领域,推动相关技术的负责任发展。
📄 摘要(原文)
What a large language model (LLM) would respond in ethically relevant context? In this paper, we curate a large benchmark CMoralEval for morality evaluation of Chinese LLMs. The data sources of CMoralEval are two-fold: 1) a Chinese TV program discussing Chinese moral norms with stories from the society and 2) a collection of Chinese moral anomies from various newspapers and academic papers on morality. With these sources, we aim to create a moral evaluation dataset characterized by diversity and authenticity. We develop a morality taxonomy and a set of fundamental moral principles that are not only rooted in traditional Chinese culture but also consistent with contemporary societal norms. To facilitate efficient construction and annotation of instances in CMoralEval, we establish a platform with AI-assisted instance generation to streamline the annotation process. These help us curate CMoralEval that encompasses both explicit moral scenarios (14,964 instances) and moral dilemma scenarios (15,424 instances), each with instances from different data sources. We conduct extensive experiments with CMoralEval to examine a variety of Chinese LLMs. Experiment results demonstrate that CMoralEval is a challenging benchmark for Chinese LLMs. The dataset is publicly available at \url{https://github.com/tjunlp-lab/CMoralEval}.