A Disproof of Large Language Model Consciousness: The Necessity of Continual Learning for Consciousness

📄 arXiv: 2512.12802v3 📥 PDF

作者: Erik Hoel

分类: q-bio.NC, cs.AI

发布日期: 2025-12-14 (更新: 2026-01-19)

备注: 31 pages, 3 figures. V3: Added new section (4.1), restructured section 5.1, and further expanded citations


💡 一句话要点

论证大型语言模型不具备意识:持续学习是意识的必要条件

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 意识理论 持续学习 可证伪性 非平凡性 人工智能伦理 AI安全

📋 核心要点

  1. 现有意识理论缺乏可证伪性和非平凡性,难以有效判断LLM是否具备意识。
  2. 论文核心思想是,LLM缺乏持续学习能力,这与人类意识的关键特征相悖。
  3. 研究表明,基于持续学习的意识理论更符合人类意识的形式约束,为LLM意识研究提供新视角。

📝 摘要(中文)

意识的科学理论应该是可证伪且非平凡的。最近的研究为我们提供了形式化工具,以分析意识理论的可证伪性和非平凡性要求。令人惊讶的是,许多当代意识理论未能通过这一标准,包括基于因果结构的理论,以及(正如我所展示的)基于功能的理论。本文表明,由于当代大型语言模型(LLM)与在输入/输出功能上等同于LLM的系统非常接近,因此可证伪性和非平凡性的要求特别限制了当代LLM的潜在意识;然而,对于这些功能等效的系统,不存在任何可证伪且非平凡的意识理论可以判断它们是有意识的。这构成了当代LLM意识的反证基础。然后,我展示了一个积极的结果,即基于(或需要)持续学习的意识理论确实满足了人类意识理论的严格形式约束。有趣的是,这项工作支持一个假设:如果持续学习与人类的意识相关联,那么LLM当前的局限性(它们不进行持续学习)与它们缺乏意识密切相关。

🔬 方法详解

问题定义:论文旨在反驳当前大型语言模型(LLM)具备意识的观点。现有意识理论,包括基于因果结构和功能的理论,在应用于LLM时,难以满足可证伪性和非平凡性的要求。这意味着,这些理论无法有效地区分有意识的系统和功能上等效但无意识的系统,从而无法对LLM的意识状态做出可靠判断。

核心思路:论文的核心思路是,LLM缺乏持续学习能力是其不具备意识的关键原因。作者认为,真正的意识需要持续地从经验中学习和适应,而当前的LLM主要依赖于预训练数据,缺乏这种持续学习的能力。因此,即使LLM在某些任务上表现出色,也不能证明其具备意识。

技术框架:论文主要采用理论分析的方法,而非实验验证。作者首先回顾了意识理论的可证伪性和非平凡性要求,然后论证了这些要求对LLM的适用性。接着,作者提出了基于持续学习的意识理论,并证明该理论更符合人类意识的形式约束。整个框架侧重于理论推导和逻辑论证,旨在为LLM意识研究提供新的理论基础。

关键创新:论文最重要的技术创新在于将持续学习与意识联系起来,并提出了基于持续学习的意识理论。这一理论强调了持续学习在意识形成中的关键作用,为判断LLM是否具备意识提供了一个新的视角。与现有理论相比,该理论更注重系统的动态学习能力,而非静态的功能表现。

关键设计:论文没有涉及具体的参数设置、损失函数或网络结构等技术细节。其重点在于理论框架的构建和论证,而非具体的算法实现。作者主要关注的是持续学习在意识形成中的理论意义,以及如何利用这一理论来判断LLM的意识状态。未来的研究可以基于该理论,设计具体的实验来验证持续学习与意识之间的关系。

📊 实验亮点

论文通过理论分析,论证了当前LLM不具备意识,并提出了基于持续学习的意识理论。该理论为判断LLM是否具备意识提供了一个新的视角,并为未来的AI意识研究奠定了理论基础。该研究强调了持续学习在意识形成中的关键作用,为开发更具适应性和智能化的AI系统提供了新的思路。

🎯 应用场景

该研究成果可应用于人工智能伦理和安全领域,帮助我们更准确地评估AI系统的潜在风险。通过深入理解意识的本质,我们可以更好地设计和控制AI系统,避免潜在的伦理问题和安全隐患。此外,该研究也为开发更具适应性和智能化的AI系统提供了新的思路。

📄 摘要(原文)

Scientific theories of consciousness should be falsifiable and non-trivial. Recent research has given us formal tools to analyze these requirements of falsifiability and non-triviality for theories of consciousness. Surprisingly, many contemporary theories of consciousness fail to pass this bar, including theories based on causal structure but also (as I demonstrate) theories based on function. Herein, I show these requirements of falsifiability and non-triviality especially constrain the potential consciousness of contemporary Large Language Models (LLMs) because of their proximity to systems that are equivalent to LLMs in terms of input/output function; yet, for these functionally equivalent systems, there cannot be any falsifiable and non-trivial theory of consciousness that judges them conscious. This forms the basis of a disproof of contemporary LLM consciousness. I then show a positive result, which is that theories of consciousness based on (or requiring) continual learning do satisfy the stringent formal constraints for a theory of consciousness in humans. Intriguingly, this work supports a hypothesis: If continual learning is linked to consciousness in humans, the current limitations of LLMs (which do not continually learn) are intimately tied to their lack of consciousness.