State over Tokens: Characterizing the Role of Reasoning Tokens
作者: Mosh Levy, Zohar Elyoseph, Shauli Ravfogel, Yoav Goldberg
分类: cs.CL, cs.AI
发布日期: 2025-12-14
💡 一句话要点
提出State over Tokens框架,将LLM推理token视为外部计算状态而非语言叙事。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 推理token 可解释性 计算状态 无状态生成 信息传递 LLM调试
📋 核心要点
- 现有研究未能充分理解LLM推理token的真实作用,简单将其视为可解释的语言叙事。
- 论文提出State over Tokens框架,将推理token视为模型外部化的计算状态,是信息持久载体。
- 该框架强调需将推理token解码为状态而非文本,从而更准确理解LLM的推理过程。
📝 摘要(中文)
大型语言模型(LLM)可以在最终答案之前生成推理token,以提高复杂任务的性能。虽然这些序列看起来像人类的思考过程,但经验证据表明,它们并不是模型实际推理过程的忠实解释。为了解决外观和功能之间的这种差距,我们引入了State over Tokens(SoT)概念框架。SoT将推理token重新定义为外部化的计算状态,而不是语言叙事,它是模型无状态生成周期中唯一的持久信息载体。这解释了为什么这些token可以在被解读为文本时不能作为忠实解释的情况下驱动正确的推理,并揭示了以前被忽视的关于这些token的研究问题。我们认为,要真正理解LLM所做的过程,研究必须超越将推理token作为文本阅读,而应专注于将其解码为状态。
🔬 方法详解
问题定义:现有研究主要将LLM生成的推理token视为一种可解释的语言叙事,认为这些token反映了模型真实的推理过程。然而,经验证据表明,这些token并不总是模型实际推理过程的忠实解释,存在“外观”与“功能”之间的差距。因此,如何准确理解推理token在LLM中的真实作用,成为了一个关键问题。
核心思路:论文的核心思路是将推理token重新定义为一种外部化的计算状态(Externalized Computational State)。这意味着这些token不再仅仅是可供人类阅读的文本,而是模型在无状态生成周期中用于存储和传递信息的唯一载体。通过将token视为状态,可以更好地理解它们如何驱动正确的推理,即使它们作为文本阅读时并不具有清晰的解释性。
技术框架:State over Tokens (SoT) 框架并非一个具体的算法或模型架构,而是一种概念性的理解框架。它强调研究者应该关注如何解码推理token中蕴含的状态信息,而不是简单地将它们视为自然语言文本。该框架并未引入新的模块或阶段,而是对现有LLM推理过程的一种新的视角和解读。
关键创新:最重要的技术创新点在于对推理token角色的重新定义。与以往将其视为语言叙事的观点不同,SoT框架将其视为外部化的计算状态,是模型跨生成周期传递信息的关键。这种视角上的转变,有助于研究者更深入地理解LLM的推理机制,并发现以往被忽视的研究问题。
关键设计:由于SoT是一个概念框架,而非具体的算法或模型,因此没有具体的参数设置、损失函数或网络结构等技术细节。关键在于研究者如何设计实验和分析方法,以解码推理token中蕴含的状态信息。例如,可以通过干预推理token,观察模型输出的变化,从而推断token所代表的状态信息。
📊 实验亮点
论文提出了State over Tokens框架,强调将LLM推理token视为外部计算状态而非语言叙事。虽然论文没有提供具体的性能数据或对比基线,但其核心贡献在于提供了一种新的理解LLM推理过程的视角,为未来的研究方向提供了指导。
🎯 应用场景
该研究成果可应用于提升LLM的可解释性和可靠性。通过理解推理token所代表的计算状态,可以更好地控制和优化LLM的推理过程,减少幻觉现象,并提高模型在复杂任务中的表现。此外,该框架也为LLM的调试和优化提供了新的思路。
📄 摘要(原文)
Large Language Models (LLMs) can generate reasoning tokens before their final answer to boost performance on complex tasks. While these sequences seem like human thought processes, empirical evidence reveals that they are not a faithful explanation of the model's actual reasoning process. To address this gap between appearance and function, we introduce the State over Tokens (SoT) conceptual framework. SoT reframes reasoning tokens not as a linguistic narrative, but as an externalized computational state -- the sole persistent information carrier across the model's stateless generation cycles. This explains how the tokens can drive correct reasoning without being a faithful explanation when read as text and surfaces previously overlooked research questions on these tokens. We argue that to truly understand the process that LLMs do, research must move beyond reading the reasoning tokens as text and focus on decoding them as state.