Stop saying LLM: Large Discourse Models (LDM) and Artificial Discursive Agent (ADA)?

📄 arXiv: 2512.19117v1 📥 PDF

作者: Amar Lakel

分类: cs.CL

发布日期: 2025-12-22

备注: in French language


💡 一句话要点

提出用“大型话语模型(LDM)”和“人工话语代理(ADA)”替代“大型语言模型(LLM)”的分析框架。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大型语言模型 话语分析 人工智能伦理 社会影响评估 人工话语代理

📋 核心要点

  1. 现有对大型生成模型的分析主要集中在“大型语言模型(LLM)”的范畴,缺乏对更广泛的话语和社会语境的考虑。
  2. 论文提出将LLM重新定义为“大型话语模型(LDM)”和“人工话语代理(ADA)”,强调其在社会历史语境下对人类经验的建模。
  3. 该方案旨在通过公开试验和程序,使人工话语代理在社会空间中的地位、用途和限制更加透明,促进治理和共同监管。

📝 摘要(中文)

本文提出了一种针对大型生成模型分析的认识论转变,用“大型话语模型”(LDM)取代“大型语言模型”(LLM)的范畴,进而用“人工话语代理”(ADA)取代。该理论框架基于一个本体论三元组,区分了三个调节实例:对参照世界现象规律的理解、具身认知的结构化,以及话语在社会历史背景下的结构-语言学沉积。LDM作用于这三个实例的产物(文档),对由学习语料库具体化的人类经验的一部分的话语投射进行建模。所提出的方案旨在用公开试验和程序取代“迷恋/恐惧”的二分法,使人工话语代理在当代社会空间中的地位、用途和限制变得可理解,并将这种方法置于国家、产业、公民社会和学术界参与的治理和共同监管的视角中。

🔬 方法详解

问题定义:当前对大型生成模型的理解主要集中在语言层面,将其视为“大型语言模型(LLM)”。这种视角忽略了语言的社会性和话语性,未能充分考虑模型生成文本的社会历史语境。现有方法难以有效评估和管理这些模型在社会中的影响,容易陷入“迷恋/恐惧”的二分法。

核心思路:论文的核心在于将大型生成模型视为“大型话语模型(LDM)”和“人工话语代理(ADA)”,强调其对人类经验的话语投射进行建模。这种转变旨在将模型的分析置于更广阔的社会语境中,关注其在社会历史背景下的地位、用途和限制。通过这种方式,可以更全面地理解和评估模型的影响,并促进更有效的治理和监管。

技术框架:论文构建了一个本体论三元组,作为分析LDM的基础:1) 对参照世界现象规律的理解;2) 具身认知的结构化;3) 话语在社会历史背景下的结构-语言学沉积。LDM作用于这三个实例的产物(文档),对由学习语料库具体化的人类经验的一部分的话语投射进行建模。该框架旨在提供一个更全面的视角,以理解LDM如何从数据中学习并生成文本。

关键创新:论文的关键创新在于概念框架的转变,即从LLM到LDM和ADA。这种转变强调了大型生成模型的话语性和社会性,使其分析超越了纯粹的语言层面。通过引入本体论三元组,论文提供了一个更结构化的方法来理解LDM如何从数据中学习并生成文本。

关键设计:论文主要关注概念框架的构建,并未涉及具体的参数设置、损失函数或网络结构等技术细节。其重点在于提供一个理论基础,用于分析和评估大型生成模型在社会中的影响。未来的研究可以基于此框架,开发更具体的评估指标和治理策略。

📊 实验亮点

由于该论文主要关注理论框架的构建,而非实验验证,因此没有具体的性能数据或对比基线。其亮点在于提出了一个全新的视角来理解和分析大型生成模型,为未来的研究提供了理论基础。

🎯 应用场景

该研究成果可应用于人工智能伦理、政策制定和社会影响评估等领域。通过将大型生成模型视为话语代理,可以更好地理解其在信息传播、舆论引导和社会互动中的作用,从而制定更有效的监管措施,减少潜在的负面影响,并促进其在教育、文化交流等领域的积极应用。

📄 摘要(原文)

This paper proposes an epistemological shift in the analysis of large generative models, replacing the category ''Large Language Models'' (LLM) with that of ''Large Discourse Models'' (LDM), and then with that of Artificial Discursive Agent (ADA). The theoretical framework is based on an ontological triad distinguishing three regulatory instances: the apprehension of the phenomenal regularities of the referential world, the structuring of embodied cognition, and the structural-linguistic sedimentation of the utterance within a socio-historical context. LDMs, operating on the product of these three instances (the document), model the discursive projection of a portion of human experience reified by the learning corpus. The proposed program aims to replace the ''fascination/fear'' dichotomy with public trials and procedures that make the place, uses, and limits of artificial discursive agents in contemporary social space decipherable, situating this approach within a perspective of governance and co-regulation involving the State, industry, civil society, and academia.