Ko-MuSR: A Multistep Soft Reasoning Benchmark for LLMs Capable of Understanding Korean

📄 arXiv: 2510.24150v1 📥 PDF

作者: Chanwoo Park, Suyoung Park, JiA Kang, Jongyeon Park, Sangho Kim, Hyunji M. Park, Sumin Bae, Mingyu Kang, Jaejin Lee

分类: cs.CL, cs.AI

发布日期: 2025-10-28

备注: submitted to ACL ARR Rolling Review


💡 一句话要点

提出Ko-MuSR基准,用于评估LLM在理解韩语长文本叙事中的多步软推理能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 韩语NLP 多步推理 软推理 长文本理解 基准测试

📋 核心要点

  1. 现有方法难以评估LLM在韩语长文本中的多步软推理能力,且存在数据污染问题。
  2. Ko-MuSR基准使用全韩语叙事和推理链,并经过人工验证,确保逻辑一致性和可解答性。
  3. 实验表明,多语言模型在韩语推理任务中表现优于韩语专用模型,提示策略可显著提升性能。

📝 摘要(中文)

本文提出了Ko-MuSR,这是首个全面评估大型语言模型在长篇韩语叙事中进行多步、软推理能力的基准,同时最大限度地减少数据污染。Ko-MuSR遵循MuSR构建,以完全韩语的叙事、推理链和多项选择题为特色,并通过人工标注员验证其逻辑一致性和可解答性。对四个大型语言模型的评估——两个多语言模型和两个韩语专用模型——表明,即使在韩语推理任务中,多语言模型的性能也优于韩语模型,这表明了推理能力的跨语言泛化。精心设计的提示策略,结合了少量样本示例、推理轨迹和特定于任务的提示,进一步提高了准确性,接近人类水平的性能。Ko-MuSR通过系统地评估长上下文推理和提示策略,为推进韩国自然语言处理提供了坚实的基础。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLMs)在理解和推理韩语长文本叙事方面的能力评估问题。现有的评估方法要么缺乏针对韩语的专门设计,要么存在数据污染的风险,难以准确衡量LLMs的真实推理能力。特别是,多步软推理,即需要结合多个线索和上下文信息进行判断的推理方式,在现有基准中没有得到充分的体现。

核心思路:论文的核心思路是构建一个高质量、无污染的韩语多步软推理基准Ko-MuSR。通过精心设计的韩语叙事、推理链和多项选择题,并经过人工标注员的严格验证,确保基准的逻辑一致性和可解答性。这样设计的目的是为了提供一个可靠的平台,用于评估和比较不同LLMs在韩语推理方面的性能。

技术框架:Ko-MuSR基准的构建主要包含以下几个阶段:1) 数据收集:收集包含复杂情节和人物关系的长篇韩语叙事文本。2) 问题生成:基于叙事文本,设计需要多步推理才能解答的多项选择题。3) 推理链构建:为每个问题构建详细的推理链,解释从文本到答案的推理过程。4) 人工验证:由人工标注员对叙事、问题和推理链进行逻辑一致性和可解答性验证,确保基准的质量。

关键创新:Ko-MuSR的关键创新在于它是首个专门针对韩语长文本叙事的多步软推理基准。与现有的通用推理基准相比,Ko-MuSR更加关注韩语的语言特性和文化背景,能够更准确地评估LLMs在理解和推理韩语文本方面的能力。此外,Ko-MuSR通过人工验证的方式,有效降低了数据污染的风险,保证了评估结果的可靠性。

关键设计:Ko-MuSR的关键设计包括:1) 叙事文本的长度和复杂度:确保叙事文本包含足够的信息,需要进行多步推理才能解答问题。2) 问题类型的多样性:设计不同类型的多项选择题,考察LLMs的不同推理能力。3) 推理链的详细程度:提供详细的推理链,帮助LLMs理解推理过程,并提高解答问题的准确性。4) 提示策略的设计:探索不同的提示策略,例如少量样本示例、推理轨迹和特定于任务的提示,以提高LLMs的性能。

🖼️ 关键图片

img_0

📊 实验亮点

实验结果表明,多语言模型在Ko-MuSR基准上的表现优于韩语专用模型,这表明推理能力具有跨语言泛化的潜力。通过精心设计的提示策略,例如结合少量样本示例、推理轨迹和特定于任务的提示,LLMs的准确率得到了显著提升,甚至接近人类水平。这些结果验证了Ko-MuSR基准的有效性,并为提升LLMs的韩语推理能力提供了新的思路。

🎯 应用场景

Ko-MuSR基准的潜在应用领域包括:提升韩语自然语言处理模型的推理能力,开发更智能的韩语对话系统和问答系统,以及评估和比较不同LLMs在韩语理解方面的性能。该基准的实际价值在于为韩语NLP研究提供了一个可靠的评估平台,促进相关技术的发展。未来,Ko-MuSR可以扩展到其他语言和领域,为更广泛的自然语言处理研究做出贡献。

📄 摘要(原文)

We present Ko-MuSR, the first benchmark to comprehensively evaluate multistep, soft reasoning in long Korean narratives while minimizing data contamination. Built following MuSR, Ko-MuSR features fully Korean narratives, reasoning chains, and multiple-choice questions verified by human annotators for logical consistency and answerability. Evaluations of four large language models -- two multilingual and two Korean-specialized -- show that multilingual models outperform Korean-focused ones even in Korean reasoning tasks, indicating cross-lingual generalization of reasoning ability. Carefully designed prompting strategies, which combine few-shot examples, reasoning traces, and task-specific hints, further boost accuracy, approaching human-level performance. Ko-MuSR offers a solid foundation for advancing Korean NLP by enabling systematic evaluation of long-context reasoning and prompting strategies.