Not Minds, but Signs: Reframing LLMs through Semiotics
作者: Davide Picca
分类: cs.CL
发布日期: 2025-05-20 (更新: 2025-07-01)
💡 一句话要点
通过符号学视角重构LLM:关注符号操纵而非认知模拟
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 符号学 认知科学 人工智能伦理 文本生成
📋 核心要点
- 现有研究倾向于将LLM视为认知系统,但这种认知主义视角可能导致对LLM能力的过度解读和拟人化。
- 论文提出一种符号学框架,将LLM视为符号操纵和意义构建的工具,而非具有理解能力的认知主体。
- 通过理论分析和实践案例,展示了LLM在文学、哲学、教育等领域的应用,强调其作为创造性工具的潜力。
📝 摘要(中文)
本文挑战了将大型语言模型(LLM)视为认知系统的普遍倾向,转而提出一种符号学视角,将这些模型置于符号操纵和意义构建的更广泛动态之中。我们认为,LLM的主要功能是基于概率关联重组、重新语境化和传播语言形式,而不是假设它们理解语言或模拟人类思维。通过从认知主义框架转向符号学框架,我们避免了拟人化,并更精确地理解LLM如何参与文化过程,不是通过思考,而是通过生成邀请解释的文本。通过理论分析和实践案例,本文展示了LLM如何作为符号代理发挥作用,其输出可以被视为解释行为,可以进行语境协商和批判性反思。我们探讨了LLM在文学、哲学、教育和文化生产中的应用,强调它们如何作为创造力、对话和批判性探究的工具。符号学范式突出了意义的语境性、偶然性和社会嵌入性,为研究和使用LLM提供了一个更严谨和更具伦理意识的框架。最终,这种方法将LLM重新定义为持续符号生态中的技术参与者。它们不具备心智,但它们改变了我们阅读、写作和创造意义的方式,迫使我们重新思考语言、解释以及人工系统在知识生产中的作用的基础。
🔬 方法详解
问题定义:现有研究常常将大型语言模型(LLM)视为具有认知能力的系统,试图理解其内部运作机制,并将其与人类认知进行类比。然而,这种认知主义视角容易导致对LLM能力的过度解读和拟人化,忽略了LLM本质上是基于概率统计的符号操纵工具。现有方法未能充分考虑LLM在文化和社会语境中的作用,以及其输出文本的解释性和开放性。
核心思路:本文的核心思路是将LLM从认知系统的角度重新定义为符号系统。这意味着不再关注LLM是否“理解”语言,而是关注其如何基于概率关联重组、重新语境化和传播语言符号。通过符号学视角,可以更准确地理解LLM如何参与文化过程,以及其输出文本如何被解释和赋予意义。这种视角避免了拟人化,并强调了LLM在符号生态中的作用。
技术框架:本文主要采用理论分析的方法,结合实践案例来论证符号学框架的有效性。没有提出新的技术架构或流程。文章首先阐述了符号学的基本概念,然后将这些概念应用于LLM的分析。通过分析LLM的输出文本,展示了其作为符号代理的特征,以及其在不同语境下的解释可能性。文章还探讨了LLM在文学、哲学、教育等领域的应用,强调其作为创造性工具的潜力。
关键创新:本文最重要的创新在于提出了一个全新的视角来理解LLM,即符号学视角。与传统的认知主义视角不同,符号学视角关注LLM的符号操纵能力,而非其认知能力。这种视角避免了拟人化,并强调了LLM在文化和社会语境中的作用。此外,本文还强调了LLM输出文本的解释性和开放性,认为其意义是由读者或用户赋予的,而非由LLM本身决定的。
关键设计:本文没有涉及具体的参数设置、损失函数或网络结构等技术细节。其重点在于理论框架的构建和应用,而非技术实现。文章通过分析LLM的输出文本,展示了其作为符号代理的特征,并探讨了其在不同语境下的解释可能性。没有涉及任何算法层面的创新。
📊 实验亮点
本文通过理论分析和实践案例,展示了LLM作为符号代理的特征,并探讨了其在不同语境下的解释可能性。强调了LLM在文学、哲学、教育等领域的应用,并指出其可以作为创造力、对话和批判性探究的工具。没有提供具体的性能数据或对比基线。
🎯 应用场景
该研究成果可应用于多个领域,包括文学创作、哲学研究、教育创新和文化生产。通过将LLM视为符号操纵工具,可以更有效地利用其生成文本的能力,促进创造性表达和批判性思维。此外,该研究还有助于提高人们对LLM的伦理意识,避免对其能力的过度解读和滥用。
📄 摘要(原文)
This paper challenges the prevailing tendency to frame Large Language Models (LLMs) as cognitive systems, arguing instead for a semiotic perspective that situates these models within the broader dynamics of sign manipulation and meaning-making. Rather than assuming that LLMs understand language or simulate human thought, we propose that their primary function is to recombine, recontextualize, and circulate linguistic forms based on probabilistic associations. By shifting from a cognitivist to a semiotic framework, we avoid anthropomorphism and gain a more precise understanding of how LLMs participate in cultural processes, not by thinking, but by generating texts that invite interpretation. Through theoretical analysis and practical examples, the paper demonstrates how LLMs function as semiotic agents whose outputs can be treated as interpretive acts, open to contextual negotiation and critical reflection. We explore applications in literature, philosophy, education, and cultural production, emphasizing how LLMs can serve as tools for creativity, dialogue, and critical inquiry. The semiotic paradigm foregrounds the situated, contingent, and socially embedded nature of meaning, offering a more rigorous and ethically aware framework for studying and using LLMs. Ultimately, this approach reframes LLMs as technological participants in an ongoing ecology of signs. They do not possess minds, but they alter how we read, write, and make meaning, compelling us to reconsider the foundations of language, interpretation, and the role of artificial systems in the production of knowledge.