Beyond Output Matching: Bidirectional Alignment for Enhanced In-Context Learning

📄 arXiv: 2312.17055v3 📥 PDF

作者: Chengwei Qin, Wenhan Xia, Fangkai Jiao, Chen Chen, Yuchen Hu, Bosheng Ding, Ruirui Chen, Shafiq Joty

分类: cs.CL

发布日期: 2023-12-28 (更新: 2025-06-01)


💡 一句话要点

提出双向对齐(BiAlign)方法,提升小模型在上下文学习中的能力。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 上下文学习 模型蒸馏 双向对齐 输入偏好 排序损失

📋 核心要点

  1. 现有蒸馏方法在上下文学习中忽略了输入的重要性,导致学生模型无法充分学习教师模型的ICL能力。
  2. BiAlign通过对齐学生和教师模型在输入和输出上的偏好,从而提升学生模型在上下文学习中的表现。
  3. 实验结果表明,BiAlign在语言理解、推理和编码等任务上显著优于现有基线方法。

📝 摘要(中文)

大型语言模型(LLMs)通过上下文学习(ICL)在许多任务上展现了令人印象深刻的少样本泛化能力。然而,大型模型的规模和复杂性也带来了前所未有的高计算需求和部署挑战。为了应对这些挑战,研究人员通常通过将较小(学生)模型的输出与较大(教师)模型的输出对齐,来将大型模型的强大能力转移到更高效和紧凑的模型中。现有的方法要么在教师模型生成的输出上训练学生模型,要么模仿它们的token级别的概率分布。然而,这些蒸馏方法很少关注输入,而输入在ICL中也起着至关重要的作用。基于ICL的性能对演示示例的选择高度敏感这一发现,我们提出了双向对齐(BiAlign),通过结合token级别的输出分布对齐以及引入新颖的排序损失来对齐学生和教师模型对ICL示例的输入偏好,从而充分利用模型对ICL示例的偏好来提高学生模型的ICL能力。通过大量的实验和分析,我们证明了BiAlign在涉及语言理解、推理和编码的各种任务上始终优于现有的基线。

🔬 方法详解

问题定义:现有的大模型蒸馏方法,尤其是针对上下文学习(ICL)的蒸馏,主要关注学生模型输出与教师模型输出的对齐,例如模仿token级别的概率分布。然而,ICL的性能高度依赖于所选的演示示例,因此输入的选择至关重要。现有方法忽略了输入偏好,导致学生模型无法充分学习教师模型的ICL能力,限制了蒸馏效果。

核心思路:BiAlign的核心思路是同时对齐学生模型和教师模型在输入和输出上的偏好。不仅要让学生模型生成与教师模型相似的输出,还要让学生模型对输入示例的偏好与教师模型保持一致。通过这种双向对齐,学生模型可以更好地学习教师模型的ICL能力。

技术框架:BiAlign包含两个主要的对齐模块:输出对齐和输入对齐。输出对齐采用传统的token级别概率分布对齐方法,例如KL散度。输入对齐则通过引入一个排序损失来实现,该损失鼓励学生模型对教师模型认为重要的ICL示例给予更高的排序。整体流程是,首先使用教师模型对ICL示例进行排序,然后使用排序损失训练学生模型,使其排序结果与教师模型相似,最后结合输出对齐损失进行联合训练。

关键创新:BiAlign的关键创新在于引入了输入偏好对齐的概念,并设计了相应的排序损失来实现这一目标。与现有方法只关注输出对齐不同,BiAlign同时考虑了输入和输出,更全面地模拟了教师模型的ICL能力。

关键设计:BiAlign的关键设计包括:1) 排序损失的选择:论文中使用了pairwise ranking loss,鼓励学生模型对教师模型排序较高的示例给予更高的排序。2) 损失函数的权重:需要仔细调整输出对齐损失和输入对齐损失的权重,以平衡两个目标。3) ICL示例的选择:教师模型用于排序的ICL示例的选择也会影响最终的蒸馏效果。

📊 实验亮点

实验结果表明,BiAlign在多个任务上显著优于现有基线方法。例如,在语言理解任务上,BiAlign的性能提升了X%;在推理任务上,BiAlign的性能提升了Y%;在编码任务上,BiAlign的性能提升了Z%。这些结果表明,BiAlign能够有效地提升学生模型的ICL能力。

🎯 应用场景

BiAlign方法可以应用于各种需要将大型语言模型的ICL能力迁移到小型模型的场景,例如在资源受限的设备上部署LLM,或者加速LLM的推理过程。该方法可以提升小型模型在语言理解、推理和编码等任务上的性能,使其更具实用价值。

📄 摘要(原文)

Large language models (LLMs) have shown impressive few-shot generalization on many tasks via in-context learning (ICL). Despite their success in showing such emergent abilities, the scale and complexity of larger models also lead to unprecedentedly high computational demands and deployment challenges. In reaction, researchers explore transferring the powerful capabilities of larger models to more efficient and compact models by typically aligning the output of smaller (student) models with that of larger (teacher) models. Existing methods either train student models on the generated outputs of teacher models or imitate their token-level probability distributions. However, these distillation methods pay little to no attention to the input, which also plays a crucial role in ICL. Based on the finding that the performance of ICL is highly sensitive to the selection of demonstration examples, we propose Bidirectional Alignment (BiAlign) to fully leverage the models' preferences for ICL examples to improve the ICL abilities of student models. Specifically, we introduce the alignment of input preferences between student and teacher models by incorporating a novel ranking loss, in addition to aligning the token-level output distribution. With extensive experiments and analysis, we demonstrate that BiAlign can consistently outperform existing baselines on a variety of tasks involving language understanding, reasoning, and coding.