Layer-Order Inversion: Rethinking Latent Multi-Hop Reasoning in Large Language Models

📄 arXiv: 2601.03542v1 📥 PDF

作者: Xukai Liu, Ye Liu, Jipeng Zhang, Yanghai Zhang, Kai Zhang, Qi Liu

分类: cs.CL, cs.AI

发布日期: 2026-01-07

备注: 16 pages, 18 figures

🔗 代码/项目: GITHUB


💡 一句话要点

揭示大语言模型多跳推理中层序反转现象,提出概率式召回-抽取框架

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 多跳推理 层序反转 概率式召回 选择性抽取

📋 核心要点

  1. 现有研究假设大语言模型多跳推理过程中,桥接实体按层顺序计算,但该假设缺乏普遍性。
  2. 论文提出概率式召回-抽取框架,模拟浅层MLP的概率召回和深层注意力层的选择性抽取。
  3. 实验验证了该框架,解释了思维链的增益,并诊断了多跳推理失败的原因。

📝 摘要(中文)

大型语言模型(LLMs)在多跳推理方面表现出色,但它们如何在内部组合多个事实仍然不清楚。最近的研究提出了“跳对齐电路假设”,认为桥接实体在后续跳跃答案之前,在各层中按顺序计算。通过对真实世界多跳查询的系统分析,我们表明这种跳对齐假设并不具有普遍性:后跳答案实体可能比桥接实体更早被解码,我们称之为“层序反转”现象,并且随着总跳数的增加而增强。为了解释这种行为,我们提出了一个“概率式召回-抽取”框架,该框架将多跳推理建模为浅层MLP层中的广泛概率召回,然后是更深层注意力层中的选择性抽取。通过系统的探测分析,重新解释了先前的层级解码证据,解释了思维链的增益,并对尽管具有正确的单跳知识的多跳失败进行了机械诊断,从而对该框架进行了实证验证。代码可在https://github.com/laquabe/Layer-Order-Inversion 获取。

🔬 方法详解

问题定义:现有研究,特别是“跳对齐电路假设”,认为在多跳推理过程中,桥接实体的信息会在语言模型的浅层被处理,而最终答案则在更深的层被解码。然而,实际情况并非如此,论文发现“层序反转”现象,即后跳答案实体可能比桥接实体更早被解码。这种现象挑战了现有对LLM多跳推理机制的理解。

核心思路:论文的核心思路是将多跳推理过程分解为两个阶段:概率式召回和选择性抽取。浅层网络负责从知识库中进行广泛的概率式召回,提取所有可能相关的实体和信息。深层网络则负责对召回的信息进行选择性抽取,聚焦于与问题最相关的部分,并最终生成答案。这种设计允许模型在早期阶段快速获取信息,并在后期阶段进行精确筛选。

技术框架:论文提出的框架包含两个主要阶段。首先,在浅层MLP层,模型进行广泛的概率式召回,从模型的记忆中提取可能相关的实体和信息。然后,在更深的注意力层,模型对召回的信息进行选择性抽取,利用注意力机制聚焦于与问题最相关的部分。最终,模型基于抽取的信息生成答案。

关键创新:论文最重要的技术创新在于提出了“概率式召回-抽取”框架,并揭示了“层序反转”现象。与传统的“跳对齐电路假设”不同,该框架认为多跳推理并非严格的按层顺序计算,而是通过浅层的广泛召回和深层的选择性抽取来实现。这种新的理解为研究LLM的多跳推理机制提供了新的视角。

关键设计:论文通过系统性的探测分析来验证提出的框架。具体来说,通过分析不同层对桥接实体和答案实体的解码能力,来验证浅层网络更倾向于召回信息,而深层网络更倾向于抽取信息。此外,论文还分析了思维链(Chain-of-Thought)对多跳推理的影响,并利用该框架对多跳推理失败的案例进行了诊断。

📊 实验亮点

论文通过实验验证了“层序反转”现象,并证明后跳答案实体可能比桥接实体更早被解码。通过探测分析,验证了提出的“概率式召回-抽取”框架,并解释了思维链对多跳推理的增益。此外,论文还对多跳推理失败的案例进行了诊断,揭示了模型在单跳知识正确的情况下,仍然可能出现多跳推理错误的原因。

🎯 应用场景

该研究成果可应用于提升大语言模型在知识密集型任务中的推理能力,例如问答系统、知识图谱推理等。通过优化模型的结构和训练方式,使其更好地进行信息召回和抽取,从而提高推理的准确性和效率。此外,该研究也有助于更好地理解大语言模型的内部工作机制,为未来的模型设计提供指导。

📄 摘要(原文)

Large language models (LLMs) perform well on multi-hop reasoning, yet how they internally compose multiple facts remains unclear. Recent work proposes \emph{hop-aligned circuit hypothesis}, suggesting that bridge entities are computed sequentially across layers before later-hop answers. Through systematic analyses on real-world multi-hop queries, we show that this hop-aligned assumption does not generalize: later-hop answer entities can become decodable earlier than bridge entities, a phenomenon we call \emph{layer-order inversion}, which strengthens with total hops. To explain this behavior, we propose a \emph{probabilistic recall-and-extract} framework that models multi-hop reasoning as broad probabilistic recall in shallow MLP layers followed by selective extraction in deeper attention layers. This framework is empirically validated through systematic probing analyses, reinterpreting prior layer-wise decoding evidence, explaining chain-of-thought gains, and providing a mechanistic diagnosis of multi-hop failures despite correct single-hop knowledge. Code is available at https://github.com/laquabe/Layer-Order-Inversion.