Token-level Accept or Reject: A Micro Alignment Approach for Large Language Models

📄 arXiv: 2505.19743v3 📥 PDF

作者: Yang Zhang, Yu Yu, Bo Tang, Yu Zhu, Chuxiong Sun, Wenqiang Wei, Jie Hu, Zipeng Xie, Zhiyu Li, Feiyu Xiong, Edward Chung

分类: cs.CL, cs.LG

发布日期: 2025-05-26 (更新: 2025-08-16)

备注: Accepted to 34th International Joint Conference on Artificial Intelligence (IJCAI 2025)

🔗 代码/项目: GITHUB | HUGGINGFACE


💡 一句话要点

提出MARA:一种微调LLM的token级Accept-Reject对齐方法,降低计算成本。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 对齐 人类偏好 token级别 二元分类

📋 核心要点

  1. 现有LLM对齐方法如RLHF和DPO计算成本高昂,需要在数十亿参数的模型上进行微调,效率低下。
  2. MARA将句子级偏好学习分解为token级二元分类,使用小型网络判断token是否应被接受,从而简化对齐过程。
  3. 实验表明,MARA在降低计算成本的同时,显著提升了LLM的对齐性能,并在多个模型和数据集上验证有效性。

📝 摘要(中文)

随着大型语言模型(LLMs)的快速发展,将这些模型与人类偏好和价值观对齐对于确保伦理和安全的应用至关重要。然而,现有的对齐技术,如RLHF或DPO,通常需要在具有数十亿参数的LLM上进行直接微调,导致巨大的计算成本和低效率。为了解决这个问题,我们提出了一种微token级Accept-Reject对齐(MARA)方法,该方法被设计为独立于语言模型运行。MARA通过将句子级偏好学习分解为token级二元分类来简化对齐过程,其中一个紧凑的三层全连接网络确定候选token是否应作为响应的一部分被“接受”或“拒绝”。在七个不同的LLM和三个开源数据集上进行的大量实验表明,MARA在降低计算成本的同时,在对齐性能方面取得了显著的改进。源代码和实现细节可在https://github.com/IAAR-Shanghai/MARA公开获取,训练好的模型在https://huggingface.co/IAAR-Shanghai/MARA_AGENTS发布。

🔬 方法详解

问题定义:现有的大型语言模型对齐方法,例如RLHF和DPO,需要直接在具有数十亿参数的LLM上进行微调,这导致了巨大的计算成本和较低的效率。因此,如何降低LLM对齐过程中的计算成本,同时保持或提高对齐性能,是一个亟待解决的问题。

核心思路:MARA的核心思路是将句子级别的偏好学习分解为token级别的二元分类问题。具体来说,对于LLM生成的每个token,MARA会判断该token是否应该被“接受”或“拒绝”,从而实现对LLM输出的微调。这种方法避免了直接在大型LLM上进行微调,从而显著降低了计算成本。

技术框架:MARA的技术框架主要包含以下几个部分:首先,LLM生成候选的token序列。然后,MARA模型(一个紧凑的三层全连接网络)对每个token进行二元分类,判断其是否应该被接受。最后,根据MARA的判断结果,对LLM的输出进行调整,从而实现与人类偏好对齐。整个过程独立于LLM本身,可以灵活地应用于不同的LLM。

关键创新:MARA最重要的技术创新点在于其token级别的Accept-Reject对齐策略。与传统的句子级别或段落级别的对齐方法不同,MARA能够对LLM的输出进行更细粒度的控制,从而实现更精确的对齐。此外,MARA使用小型网络进行token分类,避免了对大型LLM进行微调,显著降低了计算成本。

关键设计:MARA的关键设计包括:1) 使用一个紧凑的三层全连接网络作为token分类器,以降低计算复杂度。2) 将偏好学习转化为二元分类问题,简化了训练过程。3) 设计合适的训练数据,包括“接受”和“拒绝”的token样本,以训练MARA模型。4) 损失函数采用标准的二元交叉熵损失函数,优化目标是最小化分类错误率。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,MARA在七个不同的LLM和三个开源数据集上都取得了显著的改进。例如,在某些数据集上,MARA可以将LLM的对齐性能提高10%以上,同时显著降低计算成本。与直接微调LLM相比,MARA的计算成本降低了几个数量级。这些结果表明,MARA是一种高效且有效的LLM对齐方法。

🎯 应用场景

MARA具有广泛的应用前景,可用于各种需要与人类偏好对齐的LLM应用场景,例如:对话系统、文本生成、代码生成等。通过MARA,可以显著降低LLM对齐的计算成本,并提高对齐的精度,从而促进LLM在更多领域的应用。此外,MARA的token级别对齐策略也可以应用于其他序列生成任务,例如机器翻译、语音识别等。

📄 摘要(原文)

With the rapid development of Large Language Models (LLMs), aligning these models with human preferences and values is critical to ensuring ethical and safe applications. However, existing alignment techniques such as RLHF or DPO often require direct fine-tuning on LLMs with billions of parameters, resulting in substantial computational costs and inefficiencies. To address this, we propose Micro token-level Accept-Reject Aligning (MARA) approach designed to operate independently of the language models. MARA simplifies the alignment process by decomposing sentence-level preference learning into token-level binary classification, where a compact three-layer fully-connected network determines whether candidate tokens are "Accepted" or "Rejected" as part of the response. Extensive experiments across seven different LLMs and three open-source datasets show that MARA achieves significant improvements in alignment performance while reducing computational costs. The source code and implementation details are publicly available at https://github.com/IAAR-Shanghai/MARA, and the trained models are released at https://huggingface.co/IAAR-Shanghai/MARA_AGENTS.