Contrastive Learning with Narrative Twins for Modeling Story Salience
作者: Igor Sterner, Alex Lascarides, Frank Keller
分类: cs.CL
发布日期: 2026-01-12
备注: EACL 2026
💡 一句话要点
提出基于叙事孪生的对比学习框架,用于建模故事显著性。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 对比学习 叙事理解 故事显著性 叙事孪生 情节建模
📋 核心要点
- 现有方法难以有效识别故事中对情节发展至关重要的显著事件。
- 利用叙事孪生故事进行对比学习,模型学习区分具有相同情节但不同表达的故事。
- 实验表明,该方法优于传统掩码语言模型,且通过概括操作识别显著性效果最佳。
📝 摘要(中文)
本文提出了一种对比学习框架,用于建模叙事显著性,旨在识别对故事发展至关重要的事件。该框架利用叙事孪生故事(具有相同情节但表面形式不同的故事)学习故事嵌入。模型通过区分一个故事及其叙事孪生故事以及一个具有相似表面特征但情节不同的干扰项进行训练。利用得到的嵌入,我们评估了四种叙事学驱动的操作,用于推断显著性(删除、移位、中断和概括)。在ROCStories语料库的短篇叙事和维基百科情节摘要的长篇叙事上的实验表明,对比学习的故事嵌入优于掩码语言模型基线,并且概括是识别显著句子的最可靠操作。如果叙事孪生故事不可用,可以使用随机dropout从单个故事生成孪生故事。有效的干扰项可以通过提示大型语言模型获得,或者在长篇叙事中,可以使用同一故事的不同部分。
🔬 方法详解
问题定义:论文旨在解决如何有效建模故事显著性的问题,即识别故事中对情节发展至关重要的事件。现有方法,如基于掩码语言模型的方法,在捕捉故事的深层语义和情节结构方面存在不足,难以准确区分故事中不同事件的重要性。
核心思路:论文的核心思路是利用对比学习,通过区分具有相同情节但表面形式不同的“叙事孪生”故事,以及与目标故事具有相似表面特征但情节不同的“干扰项”,来学习故事的嵌入表示。这种对比学习的方式能够迫使模型关注故事中真正重要的情节信息,而忽略表面形式的差异。
技术框架:整体框架包含以下几个主要步骤:1) 构建叙事孪生数据集(如果不存在,则使用数据增强方法生成);2) 构建干扰项数据集(可以使用大型语言模型生成,或使用同一故事的不同部分);3) 使用对比学习目标训练故事嵌入模型,模型的目标是区分一个故事及其叙事孪生故事,同时将其与干扰项区分开;4) 使用学习到的故事嵌入,通过叙事学驱动的操作(删除、移位、中断、概括)来推断故事的显著性。
关键创新:该方法最重要的创新点在于利用“叙事孪生”的概念进行对比学习。传统的对比学习通常依赖于对同一数据进行不同的数据增强,而本文则利用具有相同情节但不同表达的故事作为正样本,从而能够更好地学习故事的深层语义和情节结构。此外,使用叙事学驱动的操作来评估故事嵌入的质量也是一个创新点。
关键设计:关键设计包括:1) 叙事孪生的生成方法:如果数据集没有现成的叙事孪生,可以使用随机dropout等数据增强方法从单个故事生成;2) 干扰项的生成方法:可以使用大型语言模型生成,或者在长篇叙事中,可以使用同一故事的不同部分;3) 对比学习损失函数:目标是最大化故事与其叙事孪生故事之间的相似度,同时最小化故事与干扰项之间的相似度;4) 叙事学驱动的操作:包括删除、移位、中断和概括,用于评估故事嵌入的质量。
📊 实验亮点
实验结果表明,基于叙事孪生的对比学习方法在故事显著性建模方面优于传统的掩码语言模型。在ROCStories和维基百科情节摘要数据集上,该方法在四种叙事学驱动的操作(删除、移位、中断和概括)中均取得了更好的性能。特别是,概括操作被证明是识别显著句子的最可靠方法。
🎯 应用场景
该研究成果可应用于故事理解、自动摘要、情节预测、电影剧本分析等领域。通过准确识别故事中的关键事件,可以提升机器对故事的理解能力,并为相关应用提供更可靠的基础。未来,该方法有望应用于更复杂的叙事场景,例如长篇小说和多媒体故事。
📄 摘要(原文)
Understanding narratives requires identifying which events are most salient for a story's progression. We present a contrastive learning framework for modeling narrative salience that learns story embeddings from narrative twins: stories that share the same plot but differ in surface form. Our model is trained to distinguish a story from both its narrative twin and a distractor with similar surface features but different plot. Using the resulting embeddings, we evaluate four narratologically motivated operations for inferring salience (deletion, shifting, disruption, and summarization). Experiments on short narratives from the ROCStories corpus and longer Wikipedia plot summaries show that contrastively learned story embeddings outperform a masked-language-model baseline, and that summarization is the most reliable operation for identifying salient sentences. If narrative twins are not available, random dropout can be used to generate the twins from a single story. Effective distractors can be obtained either by prompting LLMs or, in long-form narratives, by using different parts of the same story.