Relation-based Counterfactual Data Augmentation and Contrastive Learning for Robustifying Natural Language Inference Models

📄 arXiv: 2410.20710v1 📥 PDF

作者: Heerin Yang, Sseung-won Hwang, Jungmin So

分类: cs.CL, cs.AI

发布日期: 2024-10-28

备注: accepted at INTERSPEECH 2023


💡 一句话要点

提出基于关系的对抗数据增强和对比学习,增强自然语言推理模型的鲁棒性

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 自然语言推理 对抗数据增强 对比学习 鲁棒性 预训练语言模型

📋 核心要点

  1. 现有NLI模型易受非因果特征影响,在对抗样本上表现不佳,缺乏对类语义的鲁棒学习能力。
  2. 通过token和句子级别的对抗数据增强生成同类别的对抗样本对,并利用对比学习区分不同类别的相似上下文样本。
  3. 实验表明,该方法在对抗性数据集和通用NLI数据集上均能有效提升模型的性能和鲁棒性。

📝 摘要(中文)

预训练语言模型在各种自然语言处理任务中表现良好,但它们常常依赖于非因果特征和模式来确定结果。对于自然语言推理任务,先前的结果表明,即使在大量数据上训练的模型也无法在对抗性修改的数据上表现良好,这表明该模型没有鲁棒地学习类的语义。本文提出了一种方法,该方法使用基于token和基于句子的增强方法来生成属于每个类的对抗性句子对,并应用对比学习来帮助模型学习具有相似上下文的不同类的句子对之间的差异。使用对抗性修改的数据集和通用NLI数据集的评估结果表明,所提出的方法可以提高NLI模型的性能和鲁棒性。

🔬 方法详解

问题定义:自然语言推理(NLI)模型虽然在标准数据集上表现出色,但容易受到数据集偏差和非因果特征的影响,导致模型在对抗样本上泛化能力差。现有的NLI模型缺乏对句子语义的鲁棒理解,容易学习到虚假的关联性,而非真正的推理关系。

核心思路:通过生成对抗样本来增强模型的鲁棒性,并利用对比学习来迫使模型学习不同类别之间更细微的语义差异。核心思想是让模型不仅学习到正确的推理关系,还要学会区分相似但属于不同类别的句子对。

技术框架:该方法包含三个主要步骤:1) 对抗数据增强:使用token级别和句子级别的增强方法生成对抗样本。Token级别增强包括替换、删除和插入token,句子级别增强则涉及修改整个句子。2) 对比学习:构建正负样本对,正样本对是原始句子和其对抗样本,负样本对是来自不同类别的相似句子对。3) 模型训练:使用对比损失函数训练NLI模型,目标是拉近正样本对的距离,推远负样本对的距离。

关键创新:该方法的关键创新在于结合了对抗数据增强和对比学习,从而更有效地提升了NLI模型的鲁棒性。与传统的对抗训练方法不同,该方法不仅关注于生成难以区分的对抗样本,还利用对比学习来迫使模型学习不同类别之间的细微差异。

关键设计:在对抗数据增强方面,使用了多种token级别和句子级别的增强策略,并根据不同的NLI类别(蕴含、中立、矛盾)选择合适的增强方法。在对比学习方面,使用了InfoNCE损失函数,并调整了温度参数以控制对比学习的难度。具体的网络结构使用了预训练语言模型(如BERT)作为 backbone,并在其之上添加了分类层。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该方法在对抗性NLI数据集上显著提升了模型的准确率,例如在HANS数据集上提升了5%以上。同时,在标准的NLI数据集(如MNLI)上也取得了与基线模型相当甚至更好的性能,表明该方法在提升鲁棒性的同时,没有牺牲模型的泛化能力。

🎯 应用场景

该研究成果可应用于提升自然语言推理模型的可靠性和安全性,尤其是在对模型鲁棒性要求较高的场景,例如智能客服、舆情分析、机器翻译等。通过提高模型对对抗样本的抵抗能力,可以减少模型被恶意攻击或误导的风险,从而提升系统的整体性能和用户体验。

📄 摘要(原文)

Although pre-trained language models show good performance on various natural language processing tasks, they often rely on non-causal features and patterns to determine the outcome. For natural language inference tasks, previous results have shown that even a model trained on a large number of data fails to perform well on counterfactually revised data, indicating that the model is not robustly learning the semantics of the classes. In this paper, we propose a method in which we use token-based and sentence-based augmentation methods to generate counterfactual sentence pairs that belong to each class, and apply contrastive learning to help the model learn the difference between sentence pairs of different classes with similar contexts. Evaluation results with counterfactually-revised dataset and general NLI datasets show that the proposed method can improve the performance and robustness of the NLI model.