Adaptive Contrastive Search: Uncertainty-Guided Decoding for Open-Ended Text Generation

📄 arXiv: 2407.18698v2 📥 PDF

作者: Esteban Garces Arias, Julian Rodemann, Meimingwei Li, Christian Heumann, Matthias Aßenmacher

分类: cs.CL, cs.LG, stat.ME, stat.ML

发布日期: 2024-07-26 (更新: 2024-10-21)

备注: Accepted to EMNLP 2024 Findings


💡 一句话要点

提出自适应对比搜索,通过不确定性引导解码提升开放域文本生成质量

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 开放域文本生成 对比搜索 不确定性估计 自适应解码 语言模型

📋 核心要点

  1. 现有解码策略在提升文本连贯性、多样性和与人类生成文本的相似性方面面临挑战。
  2. 自适应对比搜索通过引入不确定性引导的自适应退化惩罚,平衡生成文本的创造性和连贯性。
  3. 实验结果表明,该方法在不同模型和数据集上均能有效提升文本生成质量。

📝 摘要(中文)

本文提出了一种名为自适应对比搜索的新型解码策略,旨在提升大型语言模型生成高质量文本的能力。该方法扩展了对比搜索,通过引入自适应退化惩罚,并利用模型在每个生成步骤中估计的不确定性来指导该惩罚。这种策略旨在增强语言建模过程的创造性和多样性,同时生成连贯且高质量的文本输出。实验结果表明,该方法在不同模型架构和数据集上均能提升文本生成效果,验证了其在文本生成任务中的有效性。代码、数据集和模型已公开。

🔬 方法详解

问题定义:现有的大型语言模型解码策略,如束搜索、采样、对比解码等,在开放域文本生成中难以同时保证生成文本的连贯性、多样性和高质量。尤其是在长文本生成中,容易出现重复、语义漂移等问题,影响用户体验。对比搜索虽然能提升生成质量,但可能牺牲多样性。

核心思路:本文的核心思路是利用模型自身的不确定性估计来动态调整对比搜索中的退化惩罚。当模型对下一步预测不确定时,降低退化惩罚,鼓励探索更多可能性,从而提升多样性;当模型预测比较确定时,提高退化惩罚,保证生成文本的连贯性和质量。

技术框架:自适应对比搜索是在标准对比搜索的基础上进行的改进。其主要流程包括:1) 使用语言模型预测下一个token的概率分布;2) 计算每个token的不确定性,例如通过熵或者方差等方式;3) 根据不确定性自适应地调整退化惩罚系数;4) 使用调整后的退化惩罚系数进行对比搜索,选择下一个token。

关键创新:关键创新在于引入了不确定性引导的自适应退化惩罚机制。传统的对比搜索使用固定的退化惩罚,无法根据模型的置信度进行调整。而自适应对比搜索能够根据模型的不确定性动态调整惩罚力度,从而在连贯性和多样性之间取得更好的平衡。

关键设计:不确定性的计算方式是一个关键设计。论文中可能采用了熵、方差或者其他置信度相关的指标来衡量模型的不确定性。自适应退化惩罚系数的调整策略也至关重要,可能采用了线性、指数或者其他函数关系来将不确定性映射到退化惩罚系数上。具体的损失函数和网络结构与原始的对比搜索保持一致,主要修改在于解码阶段。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文实验结果表明,自适应对比搜索在多个数据集和模型上均优于基线方法。具体性能提升数据未知,但摘要中提到在连贯性和多样性两方面均有提升。通过自适应调整退化惩罚,该方法能够更好地平衡生成文本的质量和多样性,从而生成更符合人类偏好的文本。

🎯 应用场景

自适应对比搜索可应用于各种开放域文本生成任务,例如机器翻译、文本摘要、对话生成、故事创作等。该方法能够提升生成文本的质量和多样性,从而改善用户体验,并为相关应用带来更大的价值。未来,该方法还可以与其他解码策略相结合,进一步提升文本生成效果。

📄 摘要(原文)

Decoding from the output distributions of large language models to produce high-quality text is a complex challenge in language modeling. Various approaches, such as beam search, sampling with temperature, $k-$sampling, nucleus $p-$sampling, typical decoding, contrastive decoding, and contrastive search, have been proposed to address this problem, aiming to improve coherence, diversity, as well as resemblance to human-generated text. In this study, we introduce adaptive contrastive search, a novel decoding strategy extending contrastive search by incorporating an adaptive degeneration penalty, guided by the estimated uncertainty of the model at each generation step. This strategy is designed to enhance both the creativity and diversity of the language modeling process while at the same time producing coherent and high-quality generated text output. Our findings indicate performance enhancement in both aspects, across different model architectures and datasets, underscoring the effectiveness of our method in text generation tasks. Our code base, datasets, and models are publicly available.