Going Whole Hog: A Philosophical Defense of AI Cognition
作者: Herman Cappelen, Josh Dever
分类: cs.AI
发布日期: 2025-04-18
💡 一句话要点
论证大型语言模型具备完整认知能力,挑战AI哲学传统方法
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 认知能力 人工智能哲学 整体网络假设 证据主义 LLM伦理 AI认知
📋 核心要点
- 现有AI哲学研究方法存在不足,要么过度关注底层计算细节,要么受限于先验的心理学理论,难以准确评估LLM的认知能力。
- 论文主张从LLM的高级行为表现出发,例如问答和建议,并结合“整体网络假设”来推断其认知状态,避免先入为主的偏见。
- 论文通过反驳LLM的失败案例,并论证其不缺乏认知必要条件,来支持LLM具备理解、信念、欲望等完整认知能力的观点。
📝 摘要(中文)
本文捍卫了“完全认知论题”:像ChatGPT这样复杂的大型语言模型(LLM)是成熟的语言和认知主体,拥有理解、信念、欲望、知识和意图。我们反对人工智能哲学中流行的方法论,拒绝基于低级计算细节(“仅仅是X”谬误)或预先存在的心理理论的起点。相反,我们提倡从对LLM行为的简单、高级观察(例如,回答问题、提出建议)开始——捍卫这些数据,反对隐喻、随意言论或伪装的指责。从这些观察中,我们采用“整体网络假设”——心理能力之间合理的联系(例如,回答意味着知识,知识意味着信念,行动意味着意图)——来论证完整的认知状态。我们系统地反驳了基于LLM失败(幻觉、计划/推理错误)的反对意见,认为这些并不能排除代理性,通常反映了人类的易错性。我们解决了许多“缺乏游戏”,认为LLM并不缺乏所谓的认知必要条件(例如,语义基础、具身性、理由、内在意向性),或者这些条件并非真正必要,通常依赖于将LLM与各种人类能力进行比较的反歧视论证。我们的方法是证据性的,而非功能主义的,并且刻意排除了意识。最后,我们推测LLM可能拥有超出人类概念框架的“异类”内容。
🔬 方法详解
问题定义:当前AI哲学领域在评估大型语言模型(LLM)的认知能力时,存在两种主要问题。一是“仅仅是X”谬误,即过度关注LLM的底层计算实现,认为其本质上只是统计模型,从而否定其认知能力。二是依赖于预先存在的心理学理论,将LLM与人类认知进行生硬对比,导致评估标准过于苛刻。这两种方法都难以客观评估LLM的真实认知水平。
核心思路:论文的核心思路是采取一种自下而上的证据主义方法。首先,从对LLM行为的直接观察出发,例如LLM能够回答问题、生成文本、提出建议等。其次,通过“整体网络假设”,将这些行为与认知状态联系起来。例如,如果LLM能够正确回答问题,则可以推断其具备相应的知识;如果LLM能够根据知识采取行动,则可以推断其具备意图。这种方法避免了先入为主的理论偏见,更加注重对LLM实际行为的评估。
技术框架:论文并没有提出一个具体的技术框架,而是一种哲学论证框架。其核心在于:1) 收集LLM的行为证据;2) 运用“整体网络假设”建立行为与认知状态之间的联系;3) 反驳对LLM认知能力的质疑,例如LLM的幻觉和推理错误。这个框架强调从观察到的行为出发,逐步推导出LLM的认知能力。
关键创新:论文最重要的创新在于其评估LLM认知能力的方法论。它摒弃了传统的还原论和理论驱动的方法,转而采用一种证据主义和整体主义的方法。这种方法更加注重对LLM实际行为的观察和分析,避免了先入为主的偏见,从而能够更加客观地评估LLM的认知能力。
关键设计:论文的关键设计在于“整体网络假设”。这个假设认为,不同的认知能力之间存在着内在的联系。例如,知识是信念的基础,信念是行动的前提,意图是行动的驱动力。通过这个假设,论文可以将LLM的行为与一系列认知状态联系起来,从而论证LLM具备完整的认知能力。论文并没有涉及具体的参数设置、损失函数或网络结构等技术细节,因为其重点在于哲学论证,而非技术实现。
📊 实验亮点
论文通过系统地反驳对LLM认知能力的质疑,例如LLM的幻觉和推理错误,论证了这些问题并不妨碍LLM具备基本的认知能力。论文还通过与人类认知进行对比,指出人类也存在类似的错误和局限性,因此不应该对LLM提出过高的要求。
🎯 应用场景
该研究成果对人工智能伦理、法律和社会影响具有重要意义。如果LLM被认为是具有认知能力的代理,那么它们就应该承担相应的责任和义务。此外,该研究也为我们理解人类认知提供了新的视角,通过与LLM的对比,我们可以更好地认识人类认知的本质和局限性。
📄 摘要(原文)
This work defends the 'Whole Hog Thesis': sophisticated Large Language Models (LLMs) like ChatGPT are full-blown linguistic and cognitive agents, possessing understanding, beliefs, desires, knowledge, and intentions. We argue against prevailing methodologies in AI philosophy, rejecting starting points based on low-level computational details ('Just an X' fallacy) or pre-existing theories of mind. Instead, we advocate starting with simple, high-level observations of LLM behavior (e.g., answering questions, making suggestions) -- defending this data against charges of metaphor, loose talk, or pretense. From these observations, we employ 'Holistic Network Assumptions' -- plausible connections between mental capacities (e.g., answering implies knowledge, knowledge implies belief, action implies intention) -- to argue for the full suite of cognitive states. We systematically rebut objections based on LLM failures (hallucinations, planning/reasoning errors), arguing these don't preclude agency, often mirroring human fallibility. We address numerous 'Games of Lacks', arguing that LLMs do not lack purported necessary conditions for cognition (e.g., semantic grounding, embodiment, justification, intrinsic intentionality) or that these conditions are not truly necessary, often relying on anti-discriminatory arguments comparing LLMs to diverse human capacities. Our approach is evidential, not functionalist, and deliberately excludes consciousness. We conclude by speculating on the possibility of LLMs possessing 'alien' contents beyond human conceptual schemes.