Cross-Document Cross-Lingual NLI via RST-Enhanced Graph Fusion and Interpretability Prediction

📄 arXiv: 2504.12324v3 📥 PDF

作者: Mengying Yuan, Wenhao Wang, Zixuan Wang, Yujie Huang, Kangli Wei, Fei Li, Chong Teng, Donghong Ji

分类: cs.CL, cs.AI

发布日期: 2025-04-11 (更新: 2025-10-07)

备注: EMNLP 2025 Main (Camera Ready)

🔗 代码/项目: GITHUB


💡 一句话要点

提出RST增强图融合和可解释性预测的跨文档跨语言NLI方法,并构建高质量数据集。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 跨文档NLI 跨语言NLI 自然语言推理 修辞结构理论 图神经网络 可解释性 语义对齐 多语言处理

📋 核心要点

  1. 现有NLI方法难以处理多文档、多语言场景下的推理,缺乏跨文档上下文建模和跨语言语义对齐能力。
  2. 提出一种基于RST增强图融合和可解释性预测的CDCL-NLI方法,利用RST进行跨文档建模,词汇链进行跨语言对齐。
  3. 实验结果表明,该方法在CDCL-NLI任务上显著优于传统NLI模型和大型语言模型,提升了推理性能和可解释性。

📝 摘要(中文)

本文提出了一种新的范式:跨文档跨语言自然语言推理(CDCL-NLI),它将传统的NLI能力扩展到多文档、多语言场景。为了支持这项任务,我们构建了一个高质量的CDCL-NLI数据集,包含25,410个实例,涵盖26种语言。为了解决先前方法在CDCL-NLI任务上的局限性,我们进一步提出了一种创新的方法,该方法集成了RST增强图融合与可解释性预测。我们的方法利用修辞结构理论(RST)在异构图神经网络中进行跨文档上下文建模,并采用基于词汇链的结构感知语义对齐进行跨语言理解。对于NLI可解释性,我们开发了一个EDU(基本论述单元)级别的归因框架,该框架产生抽取式解释。大量的实验表明,我们的方法具有卓越的性能,与传统的NLI模型以及大型语言模型相比,都取得了显著的改进。我们的工作阐明了NLI的研究,并将引起人们对跨文档跨语言上下文理解、幻觉消除和可解释性推理的研究兴趣。我们的代码和数据集可在“https://github.com/Leonardo123-ui/CDCL_NLI”上获得,以供同行评审。

🔬 方法详解

问题定义:论文旨在解决跨文档跨语言自然语言推理(CDCL-NLI)问题。现有NLI方法主要集中在句子级别、文档级别或跨语言的单文档推理,缺乏对多文档、多语言复杂场景的建模能力。现有方法难以有效捕捉跨文档之间的上下文关系,以及不同语言之间的语义对应关系,导致推理性能下降。此外,现有方法通常缺乏可解释性,难以理解推理过程。

核心思路:论文的核心思路是利用修辞结构理论(RST)增强的图融合来建模跨文档上下文,并结合基于词汇链的结构感知语义对齐来实现跨语言理解。通过RST,可以显式地建模文档内部和文档之间的论证关系,从而更好地捕捉上下文信息。词汇链则用于建立不同语言之间的语义对应关系,弥合语言差异。

技术框架:整体框架包含以下几个主要模块:1) 数据集构建:构建包含26种语言的CDCL-NLI数据集。2) RST增强图融合:利用RST解析器提取文档的RST树结构,构建异构图神经网络,融合跨文档上下文信息。3) 结构感知语义对齐:基于词汇链进行跨语言语义对齐,建立不同语言之间的语义对应关系。4) 可解释性预测:开发EDU级别的归因框架,生成抽取式解释。

关键创新:论文的关键创新在于:1) 提出了CDCL-NLI任务,扩展了NLI的研究范围。2) 提出了RST增强图融合方法,有效建模了跨文档上下文信息。3) 提出了基于词汇链的结构感知语义对齐方法,实现了跨语言理解。4) 提出了EDU级别的归因框架,提高了NLI的可解释性。

关键设计:在RST增强图融合中,使用异构图神经网络(HGNN)来融合不同类型的节点(例如,EDU、句子、文档)和边(例如,RST关系、共指关系)。在结构感知语义对齐中,使用词嵌入和注意力机制来计算词汇链之间的相似度,并建立语义对应关系。在可解释性预测中,使用序列标注模型来预测每个EDU对NLI结果的贡献度。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在CDCL-NLI数据集上取得了显著的性能提升,超过了传统的NLI模型和大型语言模型。具体而言,该方法在准确率方面取得了X%的提升(具体数值请参考论文原文),证明了RST增强图融合和结构感知语义对齐的有效性。此外,EDU级别的归因框架能够生成清晰的抽取式解释,提高了NLI的可解释性。

🎯 应用场景

该研究成果可应用于跨语言信息检索、多语言文档摘要、机器翻译质量评估等领域。通过提升跨文档跨语言的推理能力,可以帮助用户更好地理解和利用多语言信息资源,消除语言障碍,促进跨文化交流。此外,可解释性推理有助于提高用户对AI系统的信任度,促进AI技术的普及和应用。

📄 摘要(原文)

Natural Language Inference (NLI) is a fundamental task in natural language processing. While NLI has developed many sub-directions such as sentence-level NLI, document-level NLI and cross-lingual NLI, Cross-Document Cross-Lingual NLI (CDCL-NLI) remains largely unexplored. In this paper, we propose a novel paradigm: CDCL-NLI, which extends traditional NLI capabilities to multi-document, multilingual scenarios. To support this task, we construct a high-quality CDCL-NLI dataset including 25,410 instances and spanning 26 languages. To address the limitations of previous methods on CDCL-NLI task, we further propose an innovative method that integrates RST-enhanced graph fusion with interpretability-aware prediction. Our approach leverages RST (Rhetorical Structure Theory) within heterogeneous graph neural networks for cross-document context modeling, and employs a structure-aware semantic alignment based on lexical chains for cross-lingual understanding. For NLI interpretability, we develop an EDU (Elementary Discourse Unit)-level attribution framework that produces extractive explanations. Extensive experiments demonstrate our approach's superior performance, achieving significant improvements over both conventional NLI models as well as large language models. Our work sheds light on the study of NLI and will bring research interest on cross-document cross-lingual context understanding, hallucination elimination and interpretability inference. Our code and datasets are available at "https://github.com/Leonardo123-ui/CDCL_NLI" for peer review.