Edit Once, Update Everywhere: A Simple Framework for Cross-Lingual Knowledge Synchronization in LLMs

📄 arXiv: 2502.14645v2 📥 PDF

作者: Yuchen Wu, Liang Ding, Li Shen, Dacheng Tao

分类: cs.CL, cs.AI

发布日期: 2025-02-20 (更新: 2025-05-23)

备注: ACL 2025 Findings


💡 一句话要点

提出X-KDE框架,实现LLM中跨语言知识同步编辑与更新

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 知识编辑 跨语言学习 大型语言模型 指令调优 偏好优化

📋 核心要点

  1. 现有知识编辑方法难以在多语言LLM中实现有效的跨语言知识同步,限制了知识更新的效率和一致性。
  2. X-KDE框架通过跨语言编辑指令调优和目标语言偏好优化,实现知识从主导语言到其他语言的有效传播。
  3. 实验结果表明,X-KDE在跨语言知识编辑任务上取得了显著的性能提升,同时保持了单语言环境下的准确性。

📝 摘要(中文)

知识编辑允许大型语言模型(LLMs)高效地适应新信息或更正,而无需完全重新训练。然而,现有方法通常侧重于单语言编辑或基本的多语言编辑,未能实现真正的跨语言知识同步。为了解决这个问题,我们提出了一个简单而实用的最先进(SOTA)方法Cross-Lingual Knowledge Democracy Edit (X-KDE),旨在有效地将知识从一种主导语言传播到其他语言。我们的X-KDE包括两个阶段:(i)跨语言编辑指令调优(XE-IT),它在精心策划的并行数据集上微调模型,以修改范围内的知识,同时保留不相关的信息,以及(ii)目标语言偏好优化(TL-PO),它应用先进的优化技术来确保跨语言的一致性,促进更新的转移。此外,我们贡献了一个高质量的跨语言数据集,专门用于增强跨语言的知识转移。在Bi-ZsRE和MzsRE基准上的大量实验表明,X-KDE显著提高了跨语言性能,平均提高了+8.19%,同时保持了单语言设置中的高精度。

🔬 方法详解

问题定义:现有的大型语言模型知识编辑方法主要集中在单语或基础多语编辑,无法实现真正的跨语言知识同步。这意味着在一个语言中进行的知识更新无法自动传播到其他语言,导致知识库的不一致性和冗余。现有方法的痛点在于缺乏有效的跨语言知识迁移机制,需要针对每种语言单独进行编辑,效率低下。

核心思路:X-KDE的核心思路是通过指令调优和偏好优化,使模型能够理解并执行跨语言的知识编辑指令,并将知识从主导语言迁移到其他语言。通过XE-IT阶段,模型学习如何在修改特定知识的同时,保持其他知识的完整性。TL-PO阶段则进一步优化模型,使其在不同语言之间保持一致性,确保知识更新的有效传播。

技术框架:X-KDE框架包含两个主要阶段: 1. 跨语言编辑指令调优(XE-IT):使用精心设计的并行数据集,对模型进行微调,使其能够理解和执行跨语言的知识编辑指令。该阶段旨在修改特定范围内的知识,同时保留不相关的信息。 2. 目标语言偏好优化(TL-PO):应用先进的优化技术,例如强化学习,来确保模型在不同语言之间的一致性,从而促进知识更新的有效转移。该阶段旨在优化模型在目标语言上的表现,使其能够准确地反映主导语言中的知识更新。

关键创新:X-KDE的关键创新在于其跨语言知识同步的整体框架,以及XE-IT和TL-PO两个阶段的协同作用。与现有方法相比,X-KDE能够更有效地将知识从一种语言传播到其他语言,从而实现真正的跨语言知识同步。此外,高质量的跨语言数据集也为模型的训练提供了有力支持。

关键设计: * XE-IT阶段:使用并行数据集进行指令调优,数据集包含源语言和目标语言的知识编辑指令,以及相应的输入和输出。损失函数的设计旨在最小化编辑后的知识与目标知识之间的差异,同时最大化未编辑知识的保留。 * TL-PO阶段:使用强化学习算法,例如PPO,来优化模型在目标语言上的表现。奖励函数的设计旨在鼓励模型生成与主导语言一致的输出,并惩罚不一致的输出。具体参数设置未知,论文中可能未详细公开。

🖼️ 关键图片

fig_0
fig_1

📊 实验亮点

实验结果表明,X-KDE在Bi-ZsRE和MzsRE基准测试中显著提高了跨语言性能,平均提升了+8.19%。同时,X-KDE在单语言设置中保持了高精度,表明该方法在提高跨语言性能的同时,不会牺牲单语言性能。这些结果证明了X-KDE在跨语言知识编辑方面的有效性和优越性。

🎯 应用场景

该研究成果可广泛应用于多语言知识库的构建和维护,例如多语言搜索引擎、多语言问答系统和多语言机器翻译等。通过X-KDE框架,可以实现对LLM知识库的快速、高效和一致的更新,从而提高多语言应用的用户体验和性能。未来,该方法还可以扩展到更多的语言和知识领域,进一步提升LLM的跨语言能力。

📄 摘要(原文)

Knowledge editing allows for efficient adaptation of large language models (LLMs) to new information or corrections without requiring full retraining. However, prior methods typically focus on either single-language editing or basic multilingual editing, failing to achieve true cross-linguistic knowledge synchronization. To address this, we present a simple and practical state-of-the-art (SOTA) recipe Cross-Lingual Knowledge Democracy Edit (X-KDE), designed to propagate knowledge from a dominant language to other languages effectively. Our X-KDE comprises two stages: (i) Cross-lingual Edition Instruction Tuning (XE-IT), which fine-tunes the model on a curated parallel dataset to modify in-scope knowledge while preserving unrelated information, and (ii) Target-language Preference Optimization (TL-PO), which applies advanced optimization techniques to ensure consistency across languages, fostering the transfer of updates. Additionally, we contribute a high-quality, cross-lingual dataset, specifically designed to enhance knowledge transfer across languages. Extensive experiments on the Bi-ZsRE and MzsRE benchmarks show that X-KDE significantly enhances cross-lingual performance, achieving an average improvement of +8.19%, while maintaining high accuracy in monolingual settings.