iCLP: Large Language Model Reasoning with Implicit Cognition Latent Planning
作者: Sijia Chen, Di Niu
分类: cs.CL, cs.AI
发布日期: 2025-12-30
备注: 9 pages, 6 figures. The source code is publicly available at https://github.com/AgenticFinLab/latent-planning
💡 一句话要点
提出iCLP框架,利用隐式认知潜在规划提升LLM推理能力
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 隐式认知 潜在规划 矢量量化自编码器 推理 代码生成 数学推理 跨领域泛化
📋 核心要点
- 现有LLM依赖显式文本计划进行推理,但生成准确计划面临幻觉和任务多样性挑战。
- iCLP框架借鉴人类隐式认知,通过学习潜在计划来指导LLM推理,无需显式表达。
- 实验表明,iCLP在数学推理和代码生成任务上显著提升了准确性和效率,并具有良好的泛化性。
📝 摘要(中文)
大型语言模型(LLMs)在显式文本计划的指导下,可以在解决问题时执行可靠的逐步推理。然而,由于LLM的幻觉和特定任务问题的多样性,生成准确有效的文本计划仍然具有挑战性。为了解决这个问题,我们从人类的隐式认知(IC)中获得灵感,这是一种潜意识过程,通过从过去的经验中学习到的紧凑、广义的模式来指导决策,而不需要显式的口头表达。我们提出了iCLP,这是一个新颖的框架,使LLMs能够自适应地生成潜在计划(LPs),这些计划是有效推理指令的紧凑编码。iCLP首先从现有的逐步推理轨迹中提取显式计划。然后,它通过矢量量化自编码器和码本学习这些计划的离散表示。最后,通过在配对的潜在计划和相应的推理步骤上微调LLMs,模型学习在推理过程中执行隐式规划。在数学推理和代码生成任务上的实验结果表明,通过iCLP,LLMs可以在潜在空间中进行规划,同时在语言空间中进行推理。这种方法在准确性和效率方面都产生了显著的提高,并且至关重要的是,在保持思维链推理的可解释性的同时,展示了强大的跨领域泛化能力。
🔬 方法详解
问题定义:论文旨在解决大型语言模型(LLMs)在复杂推理任务中,依赖显式文本计划时面临的挑战。现有方法需要LLM生成详细的逐步推理计划,但由于LLM本身存在幻觉问题,且不同任务的问题形式多样,导致生成的计划往往不够准确或有效,从而影响最终的推理结果。
核心思路:论文的核心思路是模仿人类的隐式认知过程,即在没有明确语言表达的情况下,根据过去的经验形成直觉或模式,并以此指导决策。iCLP框架通过学习潜在空间中的计划表示,使LLM能够在推理过程中进行隐式规划,从而避免了对显式文本计划的依赖。
技术框架:iCLP框架包含以下几个主要阶段:1) 显式计划蒸馏:从已有的逐步推理轨迹中提取显式计划,作为训练数据。2) 潜在计划学习:使用矢量量化自编码器(VQ-VAE)学习显式计划的离散表示,生成潜在计划(LPs),并构建码本。3) 隐式规划微调:在配对的潜在计划和对应的推理步骤上微调LLM,使LLM学会根据潜在计划进行推理。
关键创新:iCLP的关键创新在于引入了隐式认知的概念,并将其应用于LLM的推理过程。通过学习潜在计划,iCLP使LLM能够在潜在空间中进行规划,从而避免了对显式文本计划的依赖,提高了推理的准确性和效率。此外,iCLP还具有良好的跨领域泛化能力,可以在不同的任务中应用。
关键设计:在潜在计划学习阶段,论文使用了矢量量化自编码器(VQ-VAE)来学习显式计划的离散表示。VQ-VAE包含一个编码器、一个解码器和一个码本。编码器将显式计划编码为连续向量,然后将其量化为码本中的离散向量。解码器则根据离散向量重建显式计划。通过训练VQ-VAE,可以学习到一组具有代表性的潜在计划,并将其存储在码本中。在隐式规划微调阶段,论文将潜在计划作为LLM的输入,并使用交叉熵损失函数来训练LLM,使其学会根据潜在计划进行推理。
🖼️ 关键图片
📊 实验亮点
实验结果表明,iCLP在数学推理和代码生成任务上取得了显著的提升。在数学推理任务上,iCLP将准确率提高了超过10%。在代码生成任务上,iCLP生成的代码质量更高,且效率更高。此外,实验还表明,iCLP具有良好的跨领域泛化能力,可以在不同的任务中应用,并且在保持思维链推理的可解释性的同时,展示了强大的跨领域泛化能力。
🎯 应用场景
iCLP框架具有广泛的应用前景,可以应用于各种需要复杂推理的任务中,例如数学问题求解、代码生成、自然语言理解等。该框架可以提高LLM在这些任务中的准确性和效率,并降低对显式文本计划的依赖。此外,iCLP还可以应用于机器人控制、游戏AI等领域,使智能体能够更好地进行决策和规划。
📄 摘要(原文)
Large language models (LLMs), when guided by explicit textual plans, can perform reliable step-by-step reasoning during problem-solving. However, generating accurate and effective textual plans remains challenging due to LLM hallucinations and the high diversity of task-specific questions. To address this, we draw inspiration from human Implicit Cognition (IC), the subconscious process by which decisions are guided by compact, generalized patterns learned from past experiences without requiring explicit verbalization. We propose iCLP, a novel framework that enables LLMs to adaptively generate latent plans (LPs), which are compact encodings of effective reasoning instructions. iCLP first distills explicit plans from existing step-by-step reasoning trajectories. It then learns discrete representations of these plans via a vector-quantized autoencoder coupled with a codebook. Finally, by fine-tuning LLMs on paired latent plans and corresponding reasoning steps, the models learn to perform implicit planning during reasoning. Experimental results on mathematical reasoning and code generation tasks demonstrate that, with iCLP, LLMs can plan in latent space while reasoning in language space. This approach yields significant improvements in both accuracy and efficiency and, crucially, demonstrates strong cross-domain generalization while preserving the interpretability of chain-of-thought reasoning.