Governance-Aware Hybrid Fine-Tuning for Multilingual Large Language Models

📄 arXiv: 2512.17344v1 📥 PDF

作者: Haomin Qi, Chengbo Huang, Zihan Dai, Yunkai Gao

分类: cs.CL

发布日期: 2025-12-19

备注: 11 pages, 4 figures, 6 tables. arXiv admin note: substantial text overlap with arXiv:2507.18076

期刊: 2025 IEEE International Conference on Big Data


💡 一句话要点

提出一种治理感知的混合微调框架,用于多语言大语言模型的低资源适应。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多语言模型 参数高效微调 低资源学习 数据治理 正交变换

📋 核心要点

  1. 现有方法在低资源场景下微调多语言大模型时,面临准确性、校准性和跨语言一致性的挑战。
  2. 提出一种混合微调框架,结合梯度对齐低秩更新、结构化正交变换和酉约束,以稳定优化。
  3. 实验表明,该方法在XNLI和FLORES数据集上优于现有PEFT基线,并提升了模型校准性和鲁棒性。

📝 摘要(中文)

本文提出了一种治理感知的混合微调框架,用于多语言大语言模型的低资源适应。该算法将梯度对齐的低秩更新与结构化正交变换相结合,通过逐层混合并在选定的子层中引入酉约束来稳定深度优化。结合轻量级的、无标签的数据治理步骤,包括语言识别、近重复删除和质量过滤,该框架旨在在严格的计算预算下提高准确性、校准性和跨语言对等性。在XNLI和FLORES上的实验表明,与强大的PEFT基线相比,该混合方法提供了持续的收益,同时保持了方向平衡并改善了概率校准。它对轻量级的正字法变体更具弹性,并且可以从简单的数据治理步骤中获得额外的收益。训练占用空间测量表明,开销适中,并且具有良好的成本-质量边界。总之,这些结果表明,混合和酉PEFT在与实际数据治理相结合时,为资源高效的多语言适应提供了一条稳定且易于访问的路径。

🔬 方法详解

问题定义:在多语言环境下,针对资源受限的大型语言模型进行微调,以适应特定任务。现有方法通常难以在计算资源有限的情况下,同时保证模型的准确性、校准性和跨语言的公平性。此外,数据质量问题(如重复数据、低质量翻译等)也会严重影响微调效果。

核心思路:核心在于结合多种参数高效微调(PEFT)技术,并引入数据治理策略。通过混合低秩更新和结构化正交变换,在模型参数空间中进行更有效的探索,同时利用酉约束来稳定训练过程。数据治理则旨在提升训练数据的质量,从而提高模型的泛化能力。

技术框架:该框架包含两个主要部分:数据治理和混合微调。数据治理阶段包括语言识别、近重复数据删除和质量过滤,以清洗训练数据。混合微调阶段则结合了梯度对齐的低秩更新和结构化正交变换,并在特定层引入酉约束。整个流程旨在在有限的计算资源下,提升模型的性能和稳定性。

关键创新:关键创新在于混合使用多种PEFT技术,并将其与数据治理相结合。传统PEFT方法可能无法充分利用模型的能力,而混合方法可以结合不同技术的优势,实现更好的性能。同时,数据治理可以显著提升训练数据的质量,从而进一步提高模型的泛化能力。

关键设计:在混合微调中,采用了逐层混合的方式,即在不同的层使用不同的PEFT技术。酉约束被应用于选定的子层,以稳定训练过程。数据治理阶段,使用了轻量级的、无标签的方法,以降低成本。具体的参数设置和损失函数选择未在摘要中详细说明,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该混合方法在XNLI和FLORES数据集上,相较于现有的PEFT基线,取得了持续的性能提升。同时,该方法提高了模型的概率校准性,并对轻微的拼写变体具有更强的鲁棒性。数据治理步骤也带来了额外的性能提升。训练成本分析表明,该方法具有良好的成本效益。

🎯 应用场景

该研究成果可应用于多语言机器翻译、跨语言信息检索、多语言情感分析等领域。尤其适用于资源受限的场景,例如在低资源语言上构建高性能的语言模型。该方法有助于提升多语言模型的公平性和可靠性,促进全球范围内的信息交流和知识共享。

📄 摘要(原文)

We present a governance-aware hybrid fine-tuning framework for multilingual, low-resource adaptation of large language models. The core algorithm combines gradient-aligned low-rank updates with structured orthogonal transformations through layer-wise mixing and introduces unitary constraints in selected sub-layers to stabilize deep optimization. In tandem with lightweight, label-free data governance steps, including language identification, near-duplicate removal, and quality filtering, the framework targets accuracy, calibration, and cross-language parity under tight compute budgets. Across XNLI and FLORES, the hybrid approach delivers consistent gains over strong PEFT baselines while maintaining directional balance and improving probability calibration, as shown in Tables II and III. It is more resilient to lightweight orthographic variants, as shown in Table IV, and benefits additively from simple governance steps, as shown in Table V. Training footprint measurements indicate modest overhead and a favorable cost-quality frontier, as shown in Table VI and Figure 2. Together, these results show that hybrid and unitary PEFT provide a stable and accessible path to resource-efficient multilingual adaptation when paired with practical data governance.