Uncertainty-Aware Gradient Signal-to-Noise Data Selection for Instruction Tuning

📄 arXiv: 2601.13697v1 📥 PDF

作者: Zhihang Yuan, Chengyu Yue, Long Huang, Litu Ou, Lei Shi

分类: cs.CL, cs.AI, cs.LG

发布日期: 2026-01-20

备注: Preprint


💡 一句话要点

提出GRADFILTERING,利用不确定性指导指令调优数据选择,提升LLM效率。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 指令调优 数据选择 不确定性感知 梯度信噪比 大型语言模型

📋 核心要点

  1. 现有指令调优数据选择方法忽略了模型训练过程中不确定性的变化,导致选择的数据质量不高。
  2. GRADFILTERING利用小型GPT-2代理和LoRA集成,通过梯度信噪比(G-SNR)来衡量数据效用,实现不确定性感知的数据选择。
  3. 实验表明,GRADFILTERING在LLM评估和人工评估中表现优异,且在相同计算资源下收敛速度更快。

📝 摘要(中文)

指令调优是调整大型语言模型(LLMs)的标准范式,但现代指令数据集庞大、嘈杂且冗余,导致全数据微调成本高昂且常常不必要。现有的数据选择方法要么构建昂贵的梯度数据存储,要么从弱代理分配静态分数,很大程度上忽略了不断变化的不确定性,从而错失了LLM可解释性的关键来源。我们提出了GRADFILTERING,一个目标无关、不确定性感知的数据选择框架,它利用带有LoRA集成的GPT-2代理,并将每个样本的梯度聚合为梯度信噪比(G-SNR)效用。在大多数LLM-as-a-judge评估以及人工评估中,我们的方法与随机子集和强大的基线相匹配或超过它们。此外,在相同的计算预算下,GRADFILTERING选择的子集比竞争性过滤器收敛得更快,反映了不确定性感知评分的优势。

🔬 方法详解

问题定义:指令调优中,全量数据微调LLM成本高昂且效率低下。现有数据选择方法,如基于梯度数据存储或静态评分,忽略了训练过程中模型不确定性的动态变化,导致选择的数据并非最优,影响模型性能。

核心思路:核心在于利用模型训练过程中的不确定性来指导数据选择。通过计算每个样本的梯度信噪比(G-SNR),可以量化该样本对于模型学习的价值,从而优先选择对模型提升最大的数据。

技术框架:GRADFILTERING框架主要包含以下几个阶段:1) 使用小型GPT-2模型作为代理模型;2) 使用LoRA集成来估计模型的不确定性;3) 计算每个样本的梯度,并将其聚合为梯度信噪比(G-SNR);4) 根据G-SNR选择数据子集进行指令调优。

关键创新:最重要的创新点在于引入了不确定性感知的数据选择机制。传统的静态评分方法无法捕捉模型在训练过程中的动态变化,而GRADFILTERING通过G-SNR动态评估每个样本的价值,从而更有效地选择数据。

关键设计:关键设计包括:1) 使用GPT-2作为代理模型,降低计算成本;2) 使用LoRA集成来估计模型的不确定性,提高G-SNR的准确性;3) G-SNR的计算方式,平衡了梯度的大小和噪声的影响,从而更准确地评估样本的价值。具体G-SNR的计算公式未知,论文中可能未详细公开。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,GRADFILTERING在LLM-as-a-judge评估和人工评估中,性能与随机子集和强大的基线方法相当甚至超越。更重要的是,在相同的计算预算下,GRADFILTERING选择的数据子集收敛速度更快,证明了不确定性感知评分的有效性。具体的性能提升幅度未知,需要在论文中查找。

🎯 应用场景

GRADFILTERING可应用于各种指令调优场景,尤其是在数据量大、计算资源有限的情况下。它可以帮助研究人员和工程师更高效地训练LLM,降低训练成本,并提高模型性能。该方法还可用于主动学习等领域,选择最具信息量的样本进行标注。

📄 摘要(原文)

Instruction tuning is a standard paradigm for adapting large language models (LLMs), but modern instruction datasets are large, noisy, and redundant, making full-data fine-tuning costly and often unnecessary. Existing data selection methods either build expensive gradient datastores or assign static scores from a weak proxy, largely ignoring evolving uncertainty, and thus missing a key source of LLM interpretability. We propose GRADFILTERING, an objective-agnostic, uncertainty-aware data selection framework that utilizes a small GPT-2 proxy with a LoRA ensemble and aggregates per-example gradients into a Gradient Signal-to-Noise Ratio (G-SNR) utility. Our method matches or surpasses random subsets and strong baselines in most LLM-as-a-judge evaluations as well as in human assessment. Moreover, GRADFILTERING-selected subsets converge faster than competitive filters under the same compute budget, reflecting the benefit of uncertainty-aware scoring.