On the Entity-Level Alignment in Crosslingual Consistency
作者: Yihong Liu, Mingyang Wang, François Yvon, Hinrich Schütze
分类: cs.CL
发布日期: 2025-10-11
备注: preprint
💡 一句话要点
通过实体对齐增强跨语言一致性,提升多语言大语言模型的事实性知识回忆能力。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多语言大语言模型 跨语言一致性 实体对齐 事实回忆 枢轴语言
📋 核心要点
- 多语言LLM在跨语言事实一致性方面表现不佳,根本原因在于实体对齐失败。
- 论文提出SubSub和SubInj方法,通过在prompt中引入英文翻译,强化实体对齐。
- 实验表明,该方法显著提升了事实回忆的准确性和一致性,并揭示了其内部机制。
📝 摘要(中文)
多语言大型语言模型(LLMs)应能在不同语言中一致地回忆事实性知识。然而,这种跨语言一致性的产生因素及其频繁失效的原因仍然知之甚少。本文假设这些不一致性可能源于实体对齐的失败,即在不同语言之间将主语和宾语实体映射到共享概念空间的过程。为了验证这一点,我们通过实体级别(主语和宾语)的翻译任务来评估对齐情况,发现一致性与所有研究模型中的对齐情况密切相关,主语或宾语的未对齐经常导致不一致。在此基础上,我们提出了SubSub和SubInj两种有效方法,将主语的英文翻译集成到不同语言的提示中,从而显著提高事实回忆的准确性和一致性。最后,我们的机制分析表明,这些干预通过模型的内部枢轴语言处理,加强了概念空间中的实体表示对齐,为改进多语言事实预测提供了有效且实用的策略。
🔬 方法详解
问题定义:多语言大语言模型在不同语言中回忆事实知识时,经常出现不一致的情况。现有的方法缺乏对这种不一致性根本原因的深入理解,尤其是在实体层面的对齐问题。因此,如何提升多语言LLM在不同语言间的事实一致性,是一个亟待解决的问题。
核心思路:论文的核心思路是,跨语言事实不一致的根源在于实体对齐的失败。通过在prompt中引入主语的英文翻译,可以有效地增强模型在不同语言间对同一实体的理解和表示,从而提升事实一致性。这种方法利用了英语作为枢轴语言的优势,促进了跨语言知识的对齐。
技术框架:论文提出的方法主要包含以下几个步骤:1) 分析多语言LLM在实体层面的对齐情况,通过翻译任务评估主语和宾语的对齐程度。2) 提出SubSub和SubInj两种方法,将主语的英文翻译融入到prompt中。SubSub方法直接将英文翻译添加到prompt中,而SubInj方法则通过特殊token将英文翻译注入到模型中。3) 通过实验验证这两种方法在提升事实回忆准确性和一致性方面的效果。4) 进行机制分析,探究这些干预如何影响模型内部的实体表示对齐。
关键创新:该论文的关键创新在于:1) 首次明确指出并验证了实体对齐在跨语言事实一致性中的重要作用。2) 提出了简单有效的SubSub和SubInj方法,通过引入英文翻译来增强实体对齐,无需复杂的模型修改或训练。3) 通过机制分析,深入理解了这些干预如何影响模型内部的表示学习,为未来的研究提供了新的视角。
关键设计:SubSub方法直接将英文翻译添加到prompt中,例如,将“巴黎是法国的首都”翻译成德语后,在prompt中加入“Paris is the capital of France”。SubInj方法则使用特殊token将英文翻译注入到模型中,例如,将“巴黎是法国的首都”翻译成德语后,在prompt中加入“[SUB]Paris is the capital of France[/SUB]”。论文没有详细说明具体的参数设置或损失函数,重点在于验证实体对齐的重要性以及提出有效的干预方法。
🖼️ 关键图片
📊 实验亮点
实验结果表明,SubSub和SubInj方法在多个多语言LLM上均取得了显著的提升。例如,在某些数据集上,事实回忆的准确性提升了10%以上,跨语言一致性也得到了显著改善。机制分析表明,这些干预有效地增强了模型内部的实体表示对齐,验证了实体对齐在跨语言事实一致性中的重要作用。
🎯 应用场景
该研究成果可应用于提升多语言知识图谱构建、跨语言信息检索、多语言机器翻译等领域。通过增强多语言LLM的事实一致性,可以提高其在实际应用中的可靠性和准确性,例如在多语言智能客服、跨语言内容生成等场景中具有重要价值。未来,该研究可以扩展到更多语言和更复杂的知识推理任务中。
📄 摘要(原文)
Multilingual large language models (LLMs) are expected to recall factual knowledge consistently across languages. However, the factors that give rise to such crosslingual consistency -- and its frequent failure -- remain poorly understood. In this work, we hypothesize that these inconsistencies may arise from failures in entity alignment, the process of mapping subject and object entities into a shared conceptual space across languages. To test this, we assess alignment through entity-level (subject and object) translation tasks, and find that consistency is strongly correlated with alignment across all studied models, with misalignment of subjects or objects frequently resulting in inconsistencies. Building on this insight, we propose SubSub and SubInj, two effective methods that integrate English translations of subjects into prompts across languages, leading to substantial gains in both factual recall accuracy and consistency. Finally, our mechanistic analysis reveals that these interventions reinforce the entity representation alignment in the conceptual space through model's internal pivot-language processing, offering effective and practical strategies for improving multilingual factual prediction.