Min-$k$ Sampling: Decoupling Truncation from Temperature Scaling via Relative Logit Dynamics

📄 arXiv: 2604.11012v1 📥 PDF

作者: Yuanhao Ding, Meimingwei Li, Esteban Garces Arias, Matthias Aßenmacher, Christian Heumann, Chongsheng Zhang

分类: cs.AI, cs.CL, cs.LG

发布日期: 2026-04-13

备注: Accepted at ACL 2026 (Main Conference)


💡 一句话要点

提出Min-$k$采样方法,通过相对Logit动态解耦截断与温度缩放,提升大语言模型文本生成质量。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 文本生成 采样策略 Logit空间 温度不变性 动态截断 语义悬崖 大语言模型

📋 核心要点

  1. 现有Top-$k$等采样方法对温度参数敏感,影响生成文本质量,且易受长尾噪声干扰。
  2. Min-$k$采样通过分析Logit分布的局部形状,动态确定截断边界,实现温度不变性。
  3. 实验表明,Min-$k$在多种任务中提升文本质量,对超参数不敏感,且在极端温度下表现稳健。

📝 摘要(中文)

大型语言模型生成的文本质量严重依赖于解码采样策略。主流方法如Top-$k$、Top-$p$和Min-$p$通过概率空间截断在多样性和准确性之间取得平衡,但它们存在一个固有的局限性:对温度参数的极端敏感性。最近的Logit空间方法,如Top-$nσ$,实现了温度不变性,但依赖于易受长尾噪声影响的全局统计,无法捕捉到顶部候选者之间细粒度的置信度结构。我们提出Min-$k$采样,一种新颖的动态截断策略,它分析排序后的Logit分布的局部形状,以识别“语义悬崖”:从高置信度核心token到不确定长尾token的急剧过渡。通过计算位置加权相对衰减率,Min-$k$在每个生成步骤动态地确定截断边界。我们正式证明Min-$k$实现了严格的温度不变性,并通过实验证明了其对超参数选择的低敏感性。在多个推理基准、创意写作任务和人工评估中进行的实验表明,Min-$k$始终提高文本质量,即使在基于概率的方法崩溃的极端温度设置下也能保持稳健的性能。我们公开了我们的代码、模型和分析工具。

🔬 方法详解

问题定义:现有基于概率空间截断的采样方法(如Top-$k$, Top-$p$, Min-$p$)对温度参数极其敏感,导致生成文本质量不稳定。而基于logit空间的方法(如Top-$nσ$)虽然具有温度不变性,但依赖全局统计信息,容易受到长尾噪声的影响,无法准确捕捉top候选词之间的细粒度置信度结构。因此,如何设计一种既具有温度不变性,又能有效利用局部信息进行截断的采样方法是一个挑战。

核心思路:Min-$k$采样的核心思路是动态地分析排序后的logit分布的局部形状,寻找“语义悬崖”,即从高置信度核心token到不确定长尾token的急剧过渡点。通过识别这些语义悬崖,可以确定一个动态的截断边界,从而只保留置信度高的token进行采样,同时排除噪声token。这种方法的核心在于利用相对衰减率来衡量logit分布的局部变化,从而实现对温度参数的鲁棒性。

技术框架:Min-$k$采样主要包含以下几个步骤:1. 对模型的logit输出进行排序。2. 计算排序后的logit分布的位置加权相对衰减率。3. 基于衰减率识别“语义悬崖”,确定截断位置$k$。4. 只保留前$k$个token进行采样。整个过程是动态的,即在每个生成步骤都会重新计算截断位置$k$。

关键创新:Min-$k$采样的关键创新在于其动态截断策略,它不依赖于固定的阈值或全局统计信息,而是根据logit分布的局部形状自适应地确定截断边界。与现有方法相比,Min-$k$采样具有以下优势:1. 严格的温度不变性,保证在不同温度下生成文本质量的稳定性。2. 对超参数选择的低敏感性,降低了调参的难度。3. 能够有效利用局部信息,避免受到长尾噪声的影响。

关键设计:Min-$k$采样的关键设计在于位置加权相对衰减率的计算公式。具体来说,对于排序后的logit值$l_i$,其相对衰减率定义为:$r_i = (l_i - l_{i+1}) / l_i$。为了考虑位置信息,引入一个位置权重$w_i$,最终的加权相对衰减率为:$r'_i = w_i * r_i$。位置权重的设计需要根据具体的任务进行调整,一种常用的方法是使用线性衰减或指数衰减。截断位置$k$的选择可以通过设置一个阈值来确定,例如,选择第一个$r'_i$大于阈值的$i$作为$k$。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,Min-$k$采样在多个推理基准、创意写作任务和人工评估中均优于现有的采样方法。例如,在某些任务上,Min-$k$采样能够将文本质量提升10%以上。此外,Min-$k$采样在极端温度设置下仍能保持稳健的性能,而传统的基于概率的方法则会崩溃。实验还证明了Min-$k$采样对超参数选择的低敏感性。

🎯 应用场景

Min-$k$采样可广泛应用于各种文本生成任务,例如机器翻译、文本摘要、对话生成、创意写作等。该方法能够提高生成文本的质量和稳定性,尤其是在需要控制生成文本多样性和准确性的场景下。此外,Min-$k$采样对超参数不敏感,降低了实际应用中的调参成本,具有很高的实用价值。

📄 摘要(原文)

The quality of text generated by large language models depends critically on the decoding sampling strategy. While mainstream methods such as Top-$k$, Top-$p$, and Min-$p$ achieve a balance between diversity and accuracy through probability-space truncation, they share an inherent limitation: extreme sensitivity to the temperature parameter. Recent logit-space approaches like Top-$nσ$ achieve temperature invariance but rely on global statistics that are susceptible to long-tail noise, failing to capture fine-grained confidence structures among top candidates. We propose \textbf{Min-$k$ Sampling}, a novel dynamic truncation strategy that analyzes the local shape of the sorted logit distribution to identify "semantic cliffs": sharp transitions from high-confidence core tokens to uncertain long-tail tokens. By computing a position-weighted relative decay rate, Min-$k$ dynamically determines truncation boundaries at each generation step. We formally prove that Min-$k$ achieves strict temperature invariance and empirically demonstrate its low sensitivity to hyperparameter choices. Experiments on multiple reasoning benchmarks, creative writing tasks, and human evaluation show that Min-$k$ consistently improves text quality, maintaining robust performance even under extreme temperature settings where probability-based methods collapse. We make our code, models, and analysis tools publicly available.