Computation Mechanism Behind LLM Position Generalization

📄 arXiv: 2503.13305v3 📥 PDF

作者: Chi Han, Heng Ji

分类: cs.CL, cs.AI

发布日期: 2025-03-17 (更新: 2025-06-25)

备注: ACL 2025 Main Long Paper


💡 一句话要点

揭示LLM位置泛化能力背后的计算机制,发现注意力logits的解耦现象

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 位置泛化 注意力机制 计算机制 解耦 中间层特征 线性相关性

📋 核心要点

  1. 现有研究对LLM如何处理位置信息,特别是其位置泛化能力的计算机制,缺乏深入探索。
  2. 论文核心思想是揭示LLM内部注意力logits的解耦现象,并将其与位置相关性和语义重要性联系起来。
  3. 研究发现LLM中间层存在特定模式,这种模式并非模型架构的自然结果,而是通过学习获得的。

📝 摘要(中文)

大型语言模型(LLM)在处理文本位置方面表现出灵活性,即位置泛化能力。它们能够理解位置被打乱的文本,并泛化到比训练时更长的文本。这项工作将这种语言现象与LLM的计算机制联系起来,揭示了LLM如何通过特定的计算机制来实现对位置扰动的容忍。研究发现,尽管自注意力机制设计复杂,但LLM学习到了一种违反直觉的注意力logits解耦。这些logits的值与位置相关性和语义重要性的算术和近似值呈现出0.959的线性相关性。此外,研究还发现了一种普遍存在于中间特征中的模式,理论证明这种模式能够实现上述效果。这种模式与随机初始化的参数表现不同,表明这是一种学习到的行为,而非模型架构的自然结果。基于这些发现,本文为LLM的位置灵活性提供了计算解释和标准,并在连接位置泛化与现代LLM内部机制方面迈出了开创性的一步。

🔬 方法详解

问题定义:论文旨在解决大型语言模型(LLM)如何实现位置泛化的问题。现有的研究缺乏对LLM内部计算机制的深入理解,特别是LLM如何处理位置信息,使其能够容忍位置扰动并泛化到更长的文本序列。

核心思路:论文的核心思路是揭示LLM在处理位置信息时,注意力logits存在一种解耦现象。这种解耦使得注意力logits的值可以近似分解为位置相关性和语义重要性的算术和。通过这种方式,LLM能够更加灵活地处理位置信息,从而实现位置泛化。

技术框架:论文主要通过分析LLM的中间层特征和注意力logits来实现对位置泛化计算机制的理解。具体来说,研究人员首先观察到注意力logits与位置相关性和语义重要性的算术和之间存在高度的线性相关性。然后,他们进一步分析了LLM的中间层特征,发现了一种普遍存在的模式,并从理论上证明了这种模式能够导致注意力logits的解耦。

关键创新:论文最重要的技术创新在于发现了LLM注意力logits的解耦现象,并将其与位置泛化能力联系起来。此外,论文还揭示了LLM中间层存在一种特定的模式,这种模式并非模型架构的自然结果,而是通过学习获得的。这种发现为理解LLM的位置泛化能力提供了新的视角。

关键设计:论文的关键设计包括对注意力logits的线性相关性分析,以及对LLM中间层特征模式的识别和理论证明。研究人员使用了线性回归来分析注意力logits与位置相关性和语义重要性的算术和之间的关系。此外,他们还设计了一种方法来识别LLM中间层中存在的特定模式,并从理论上证明了这种模式能够导致注意力logits的解耦。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

研究发现,LLM的注意力logits与位置相关性和语义重要性的算术和近似值之间存在高达0.959的线性相关性。此外,研究还识别出LLM中间层存在一种特定的模式,理论证明这种模式能够导致注意力logits的解耦。这些发现为理解LLM的位置泛化能力提供了重要的证据。

🎯 应用场景

该研究成果可应用于提升LLM在各种自然语言处理任务中的性能,尤其是在需要处理长文本或位置信息不明确的场景下,例如机器翻译、文本摘要、问答系统等。通过理解LLM的位置泛化机制,可以设计更高效的模型架构和训练方法,从而提高模型的鲁棒性和泛化能力。

📄 摘要(原文)

Most written natural languages are composed of sequences of words and sentences. Similar to humans, large language models (LLMs) exhibit flexibility in handling textual positions - a phenomenon we term position generalization. They can understand texts with position perturbations and generalize to longer texts than those encountered during training with the latest techniques. These phenomena suggest that LLMs handle positions tolerantly, but how LLMs computationally process positional relevance remains largely unexplored. This work connects the linguistic phenomenon with LLMs' computational mechanisms. We show how LLMs enforce certain computational mechanisms for the aforementioned tolerance in position perturbations. Despite the complex design of the self-attention mechanism, this work reveals that LLMs learn a counterintuitive disentanglement of attention logits. Their values show a 0.959 linear correlation with an approximation of the arithmetic sum of positional relevance and semantic importance. Furthermore, we identify a prevalent pattern in intermediate features, which we prove theoretically enables this effect. The pattern, which is different from how randomly initialized parameters would behave, suggests that it is a learned behavior rather than a natural result of the model architecture. Based on these findings, we provide computational explanations and criteria for LLMs' position flexibilities. This work takes a pioneering step in linking position generalization with modern LLMs' internal mechanisms.