Situated Epistemic Infrastructures: A Diagnostic Framework for Post-Coherence Knowledge
作者: Matthew Kelly
分类: cs.HC, cs.AI, cs.DL
发布日期: 2025-08-07 (更新: 2025-10-17)
备注: 22 pages including references. Draft prepared for submission to Social Epistemology
💡 一句话要点
提出情境化认知基础设施框架,诊断后连贯性时代混合人机系统的知识权威性问题。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 大型语言模型 知识基础设施 情境化认知 知识权威性 AI治理
📋 核心要点
- 大型语言模型挑战了传统知识验证方式,暴露了现有知识基础设施的脆弱性。
- SEI框架通过追踪信誉在不同系统中的调解,分析知识如何获得权威性。
- 该框架强调协调和适应性,为AI治理、知识生产和伦理设计提供新视角。
📝 摘要(中文)
ChatGPT等大型语言模型(LLMs)通过模拟连贯性,同时绕过传统的引用、权威和验证模式,暴露了当代知识基础设施的脆弱性。本文提出了情境化认知基础设施(SEI)框架,作为一种诊断工具,用于分析在后连贯性条件下,知识如何在混合人机系统中获得权威性。SEI框架不依赖于稳定的学术领域或有限的实践社区,而是追踪信誉如何在制度、计算和时间安排中被调解。该框架整合了基础设施研究、平台理论和认识论的见解,强调协调而非分类,强调对认知管理的预期性和适应性模型的需求。本文通过提供一种稳健的、替代学术交流表征主义模型的方案,为人工智能治理、知识生产和信息系统伦理设计方面的辩论做出了贡献。
🔬 方法详解
问题定义:论文旨在解决大型语言模型(LLMs)兴起后,传统知识基础设施在权威性验证方面面临的挑战。现有方法依赖于稳定的学术领域和实践社区,难以应对LLMs模拟连贯性但绕过传统验证模式的情况。这导致知识的来源和可信度变得模糊,对知识生产和传播带来风险。
核心思路:论文的核心思路是提出“情境化认知基础设施”(SEI)框架,将知识的权威性视为一种情境化的、动态的过程,而非静态的属性。SEI框架关注知识在制度、计算和时间安排中的调解过程,强调协调而非分类,从而更好地理解和管理后连贯性时代的知识。
技术框架:SEI框架并非一个具体的算法或系统,而是一个分析框架,用于诊断和理解知识如何在混合人机系统中获得权威性。它包含以下几个关键要素: 1. 制度安排:考察知识生产和传播的制度环境,例如学术机构、出版流程等。 2. 计算安排:分析LLMs等计算系统在知识生产和传播中的作用,例如数据来源、算法逻辑等。 3. 时间安排:关注知识的生命周期,以及其在不同时间点上的权威性变化。 该框架通过追踪这些要素之间的相互作用,揭示知识权威性的形成机制。
关键创新:SEI框架的关键创新在于其对知识权威性的情境化理解。它突破了传统的表征主义模型,不再将知识视为客观的、静态的实体,而是将其视为一种社会建构的过程。这种情境化的视角有助于更好地理解LLMs等新兴技术对知识生产和传播的影响。
关键设计:SEI框架本身并非一个需要具体参数设置或网络结构的设计。其关键在于对制度、计算和时间安排等要素的细致分析和理解。研究者需要根据具体的研究对象和问题,选择合适的分析方法和工具,例如案例研究、访谈、文本分析等。
📊 实验亮点
论文提出了一个概念框架,而非具体的实验结果。其亮点在于提供了一种新的视角来理解后连贯性时代知识的权威性问题,并为相关研究提供了一个有用的分析工具。该框架整合了基础设施研究、平台理论和认识论的见解,具有较强的理论深度和实践指导意义。
🎯 应用场景
该研究成果可应用于人工智能治理、知识管理、教育等领域。通过SEI框架,可以更好地理解和评估LLMs等技术对知识生产和传播的影响,为制定合理的AI治理政策提供参考。此外,该框架还可以用于改进知识管理系统,提高知识的可信度和可用性,并为教育领域提供新的教学方法和评估工具。
📄 摘要(原文)
Large Language Models (LLMs) such as ChatGPT have rendered visible the fragility of contemporary knowledge infrastructures by simulating coherence while bypassing traditional modes of citation, authority, and validation. This paper introduces the Situated Epistemic Infrastructures (SEI) framework as a diagnostic tool for analyzing how knowledge becomes authoritative across hybrid human-machine systems under post-coherence conditions. Rather than relying on stable scholarly domains or bounded communities of practice, SEI traces how credibility is mediated across institutional, computational, and temporal arrangements. Integrating insights from infrastructure studies, platform theory, and epistemology, the framework foregrounds coordination over classification, emphasizing the need for anticipatory and adaptive models of epistemic stewardship. The paper contributes to debates on AI governance, knowledge production, and the ethical design of information systems by offering a robust alternative to representationalist models of scholarly communication.