Large language models are not about natural language

📄 arXiv: 2512.13441v1 📥 PDF

作者: Johan J. Bolhuis, Andrea Moro, Stephen Crain, Sandiway Fong

分类: cs.CL, q-bio.NC

发布日期: 2025-12-15


💡 一句话要点

大型语言模型并非关于自然语言,而是概率模型,对语言学研究无用。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 自然语言处理 语言学 认知科学 计算语言学

📋 核心要点

  1. 核心问题:大型语言模型依赖海量数据,无法揭示人类语言的内在计算机制。
  2. 方法要点:论文强调人类语言基于大脑内部的递归计算系统,而非外部数据的统计模式。
  3. 实验或效果:论文未进行实验,而是从理论层面论证大型语言模型在语言学研究中的局限性。

📝 摘要(中文)

大型语言模型对于语言学研究是无用的,因为它们是概率模型,需要大量数据来分析外部化的词串。相比之下,人类语言是由大脑内部的计算系统支撑的,该系统递归地生成分层的思想结构。语言系统以最少的外部输入生长,并且可以很容易地区分真实语言和不可能的语言。

🔬 方法详解

问题定义:论文旨在批判大型语言模型在语言学研究中的适用性。现有方法(即大型语言模型)的痛点在于,它们将语言视为外部化的字符串,通过概率统计进行建模,忽略了人类语言内在的、基于规则的生成机制。这种方法无法解释人类语言的创造性和对不可能语言的辨别能力。

核心思路:论文的核心思路是强调人类语言的独特性,认为其根植于大脑内部的计算系统,该系统能够递归地生成分层的思想结构。这种计算系统以最少的外部输入就能发展,并且能够区分真实语言和不可能的语言。因此,语言学研究应该关注这种内在的计算机制,而不是仅仅依赖外部数据的统计分析。

技术框架:该论文属于理论分析,没有具体的技术框架。其论证过程主要基于对大型语言模型工作原理的批判,以及对人类语言认知机制的理解。

关键创新:论文的关键创新在于其对大型语言模型在语言学研究中的适用性提出了质疑,并强调了人类语言内在计算机制的重要性。它挑战了将语言视为纯粹统计现象的观点,呼吁语言学研究回归对人类认知本质的探索。

关键设计:该论文没有涉及具体的技术设计,而是侧重于理论论证。其论证的关键在于对比大型语言模型和人类语言的本质差异,从而得出结论。

📊 实验亮点

该论文的主要亮点在于其批判性视角,挑战了当前大型语言模型在语言学研究中的主导地位。它强调了人类语言的独特性,并呼吁语言学研究回归对人类认知本质的探索。虽然没有提供具体的实验数据,但其理论论证具有重要的启发意义。

🎯 应用场景

该研究的潜在应用领域在于重新评估人工智能在语言理解和生成方面的研究方向。它提醒研究者,在追求性能提升的同时,不应忽视对人类语言本质的理解。未来的研究可以更多地关注如何将认知科学的发现融入到语言模型的设计中,从而更好地模拟人类的语言能力。

📄 摘要(原文)

Large Language Models are useless for linguistics, as they are probabilistic models that require a vast amount of data to analyse externalized strings of words. In contrast, human language is underpinned by a mind-internal computational system that recursively generates hierarchical thought structures. The language system grows with minimal external input and can readily distinguish between real language and impossible languages.