An Information-theoretic Multi-task Representation Learning Framework for Natural Language Understanding

📄 arXiv: 2503.04667v1 📥 PDF

作者: Dou Hu, Lingwei Wei, Wei Zhou, Songlin Hu

分类: cs.CL, cs.IT, cs.LG

发布日期: 2025-03-06

备注: 11 pages, accepted to AAAI 2025 (main conference), the code is available at https://github.com/zerohd4869/InfoMTL


💡 一句话要点

提出InfoMTL框架,通过信息论方法提升多任务学习中的自然语言理解能力。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 多任务学习 自然语言理解 信息论 表征学习 预训练语言模型

📋 核心要点

  1. 现有方法在多任务学习中存在共享表征不足和冗余特征干扰的问题,影响模型性能。
  2. InfoMTL框架通过共享信息最大化和任务特定信息最小化原则,学习更充分且噪声不变的表征。
  3. 实验结果表明,InfoMTL在多个分类任务上优于现有方法,尤其在数据受限和噪声环境下。

📝 摘要(中文)

本文提出了一种新的基于信息论的多任务表征学习框架(InfoMTL),旨在为所有任务提取噪声不变的充分表征。该框架确保共享表征对于所有任务的充分性,并减轻冗余特征的负面影响,从而增强预训练语言模型(PLM)在多任务范式下的语言理解能力。首先,提出了一个共享信息最大化原则,以学习对所有目标任务更充分的共享表征,避免多任务范式中表征压缩带来的不足问题。其次,设计了一个特定于任务的信息最小化原则,以减轻输入中潜在冗余特征的负面影响,压缩任务无关的冗余信息,并保留与多任务预测目标相关的必要信息。在六个分类基准上的实验表明,该方法在相同的多任务设置下优于12种对比多任务方法,尤其是在数据受限和噪声场景中。大量实验表明,学习到的表征更充分、数据效率更高且更鲁棒。

🔬 方法详解

问题定义:论文旨在解决多任务学习中,预训练语言模型(PLMs)的共享表征可能不足以满足所有任务需求,以及输入特征中存在的冗余信息对特定任务造成干扰的问题。现有方法难以同时保证共享表征的充分性和任务特定信息的纯粹性,导致模型性能下降,尤其是在数据量有限或存在噪声的情况下。

核心思路:论文的核心思路是利用信息论的原则,设计一种多任务学习框架,该框架能够最大化共享表征中包含的与所有任务相关的信息,同时最小化任务特定表征中包含的冗余信息。通过这种方式,模型可以学习到更充分、更鲁棒的表征,从而提升多任务学习的性能。

技术框架:InfoMTL框架包含两个主要模块:共享信息最大化模块和任务特定信息最小化模块。首先,输入数据经过预训练语言模型(PLM)编码后,进入共享信息最大化模块,该模块旨在提取对所有任务都重要的共享表征。然后,共享表征和原始输入数据一起进入任务特定信息最小化模块,该模块负责压缩任务无关的冗余信息,并保留与目标任务相关的必要信息。最后,任务特定表征被用于进行多任务预测。

关键创新:InfoMTL的关键创新在于同时采用了共享信息最大化和任务特定信息最小化原则。共享信息最大化确保了共享表征的充分性,避免了表征压缩带来的信息损失;任务特定信息最小化则减轻了冗余特征的负面影响,提高了模型的鲁棒性。这种双重优化策略使得InfoMTL能够学习到更适合多任务学习的表征。

关键设计:在共享信息最大化模块中,论文采用互信息估计的方法来衡量共享表征与各个任务目标之间的相关性,并最大化该互信息。在任务特定信息最小化模块中,论文使用变分自编码器(VAE)来压缩任务无关的冗余信息,并使用信息瓶颈(Information Bottleneck)原则来约束任务特定表征的信息量。损失函数由三部分组成:共享信息最大化损失、任务特定信息最小化损失和多任务预测损失。具体实现细节和超参数设置在论文中有详细描述。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,InfoMTL在六个分类基准上显著优于12种对比方法。尤其是在数据受限和噪声场景下,InfoMTL的性能提升更为明显。例如,在某个数据集上,InfoMTL相比最佳基线方法提升了超过5%。这些结果验证了InfoMTL框架的有效性和鲁棒性。

🎯 应用场景

该研究成果可应用于各种需要多任务学习的自然语言理解场景,例如情感分析、文本分类、问答系统等。尤其在数据资源有限或数据质量不高的情况下,InfoMTL框架能够有效提升模型的性能和鲁棒性,具有重要的实际应用价值。未来,该方法可以进一步扩展到其他模态的数据,例如图像和语音,实现跨模态的多任务学习。

📄 摘要(原文)

This paper proposes a new principled multi-task representation learning framework (InfoMTL) to extract noise-invariant sufficient representations for all tasks. It ensures sufficiency of shared representations for all tasks and mitigates the negative effect of redundant features, which can enhance language understanding of pre-trained language models (PLMs) under the multi-task paradigm. Firstly, a shared information maximization principle is proposed to learn more sufficient shared representations for all target tasks. It can avoid the insufficiency issue arising from representation compression in the multi-task paradigm. Secondly, a task-specific information minimization principle is designed to mitigate the negative effect of potential redundant features in the input for each task. It can compress task-irrelevant redundant information and preserve necessary information relevant to the target for multi-task prediction. Experiments on six classification benchmarks show that our method outperforms 12 comparative multi-task methods under the same multi-task settings, especially in data-constrained and noisy scenarios. Extensive experiments demonstrate that the learned representations are more sufficient, data-efficient, and robust.