HAF-RM: A Hybrid Alignment Framework for Reward Model Training

📄 arXiv: 2407.04185v4 📥 PDF

作者: Shujun Liu, Xiaoyu Shen, Yuhang Lai, Siyuan Wang, Shengbin Yue, Zengfeng Huang, Xuanjing Huang, Zhongyu Wei

分类: cs.CL

发布日期: 2024-07-04 (更新: 2025-01-08)


💡 一句话要点

提出混合对齐框架HAF-RM,提升奖励模型训练效果与对齐能力

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 奖励模型 大语言模型 对齐 混合监督 策略概率

📋 核心要点

  1. 现有奖励模型训练方法主要依赖于直接优化预测奖励,忽略了token级别的细粒度信息,限制了模型性能。
  2. HAF-RM框架通过引入token级别策略概率约束,实现序列级别奖励分数和token级别偏好模型的混合监督。
  3. 实验结果表明,HAF-RM在多个数据集上有效提升了奖励模型的性能和对齐能力,验证了其有效性。

📝 摘要(中文)

奖励模型在大语言模型的对齐、评估和数据构建中变得越来越重要。现有研究主要集中于通过数据改进来增强奖励模型,遵循传统的奖励模型训练框架,即直接优化预测的奖励。本文提出了一种混合对齐框架HAF-RM,用于奖励模型训练,除了奖励分数外,还引入了token级别的策略概率的额外约束。它可以同时在token级别监督内部偏好模型,并在序列级别优化奖励模型的映射层。在五个数据集上的实验结果充分表明了我们提出的混合框架在训练高质量奖励模型方面的有效性。通过解耦奖励建模过程并结合混合监督,我们的HAF-RM框架为增强奖励模型的性能和对齐提供了一种原则性和有效的方法,这是负责任地开发强大语言模型的关键组成部分。代码已开源。

🔬 方法详解

问题定义:现有奖励模型训练方法主要通过优化序列级别的奖励预测来提升模型性能,忽略了模型内部在token级别的偏好信息。这种方法可能导致奖励模型无法准确捕捉人类偏好的细微差别,从而影响最终的对齐效果。因此,如何更有效地利用token级别的偏好信息,提升奖励模型的训练效果,是一个重要的研究问题。

核心思路:HAF-RM的核心思路是将序列级别的奖励预测和token级别的策略概率结合起来,实现混合监督。通过在token级别引入策略概率的约束,可以更直接地监督模型内部的偏好学习过程,从而提升模型对人类偏好的理解能力。同时,序列级别的奖励预测可以保证模型整体的奖励预测准确性。

技术框架:HAF-RM框架主要包含两个部分:奖励模型和策略模型。奖励模型负责预测给定序列的奖励分数,策略模型负责预测每个token的策略概率。在训练过程中,HAF-RM同时优化奖励模型的奖励预测损失和策略模型的策略概率损失。通过共享底层表示,奖励模型和策略模型可以相互促进,共同提升模型性能。

关键创新:HAF-RM的关键创新在于引入了token级别的策略概率约束,实现了混合监督。与传统的奖励模型训练方法相比,HAF-RM可以更有效地利用token级别的偏好信息,从而提升模型对人类偏好的理解能力。此外,HAF-RM通过解耦奖励建模过程,将奖励预测和偏好学习分开,使得模型训练更加灵活和高效。

关键设计:HAF-RM的关键设计包括:1) 使用Transformer作为奖励模型和策略模型的底层架构;2) 使用交叉熵损失函数优化策略模型的策略概率;3) 使用均方误差损失函数优化奖励模型的奖励预测;4) 通过调整策略概率损失的权重来平衡token级别偏好学习和序列级别奖励预测的重要性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,HAF-RM在五个数据集上均取得了显著的性能提升。例如,在Helpful数据集上,HAF-RM相比于基线方法提升了5%的胜率。此外,HAF-RM还表现出更好的鲁棒性和泛化能力,能够在不同的数据集和任务上保持稳定的性能。

🎯 应用场景

HAF-RM框架可应用于各种需要奖励模型的大语言模型应用场景,例如指令微调、对话生成、文本摘要等。通过提升奖励模型的性能和对齐能力,可以显著改善这些应用的生成质量和用户体验。此外,该框架还可以用于评估不同大语言模型的对齐程度,为模型选择和优化提供依据。

📄 摘要(原文)

The reward model has become increasingly important in alignment, assessment, and data construction for large language models (LLMs). Most existing researchers focus on enhancing reward models through data improvements, following the conventional training framework for reward models that directly optimizes the predicted rewards. In this paper, we propose a hybrid alignment framework HaF-RM for reward model training by introducing an additional constraint on token-level policy probabilities in addition to the reward score. It can simultaneously supervise the internal preference model at the token level and optimize the mapping layer of the reward model at the sequence level. Experiment results on five datasets sufficiently show the validity and effectiveness of our proposed hybrid framework for training a high-quality reward model. By decoupling the reward modeling procedure and incorporating hybrid supervision, our HaF-RM framework offers a principled and effective approach to enhancing the performance and alignment of reward models, a critical component in the responsible development of powerful language models. We release our code at https://haf-rm.github.io.