Cognitive Agency Surrender: Defending Epistemic Sovereignty via Scaffolded AI Friction
作者: Kuangzhe Xu, Yu Shen, Longjie Yan, Yinghui Ren
分类: cs.HC, cs.AI
发布日期: 2026-03-23
备注: 26 pages, 3 figure. This is a preprint of a perspective article
💡 一句话要点
提出脚手架式认知摩擦,防御认知代理权让渡,保障认知主权。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 认知代理权 认知摩擦 人机交互 多智能体系统 认知主权 自动化偏见 计算表型分析
📋 核心要点
- 现有AI系统追求“零摩擦”设计,易使用户产生自动化偏见,放弃认知主权。
- 提出“脚手架式认知摩擦”理论,利用多智能体系统注入认知张力,扰乱启发式执行。
- 通过多模态计算表型分析,数学上分离决策结果与认知努力,量化认知摩擦效果。
📝 摘要(中文)
生成式人工智能的普及已将良性的认知卸载转变为认知代理权让渡的系统性风险。在“零摩擦”设计的商业教条驱动下,高度流畅的AI界面积极利用人类的认知吝啬,过早地满足了对认知闭合的需求,并导致严重的自动化偏见。为了实证地量化这种认知侵蚀,我们对2023年至2026年初的1223篇高置信度AI-HCI论文部署了一个零样本语义分类管道(τ=0.7)。分析揭示了一种不断升级的“代理接管”:2025年短暂的研究激增,旨在捍卫人类的认知主权(19.1%),但在2026年初被优化自主机器代理(19.6%)的爆炸性转变迅速压制,而无摩擦的可用性维持了结构性的霸权(67.3%)。为了消除这一陷阱,我们提出了“脚手架式认知摩擦”理论,将多智能体系统(MAS)重新用作显式的认知强制函数(例如,计算上的魔鬼代言人),以注入相关的认知张力并扰乱启发式执行。此外,我们概述了一个多模态计算表型分析议程——整合了注视转移熵、任务诱发电瞳测量、fNIRS和分层漂移扩散模型(HDDM)——以在数学上将决策结果与认知努力分离。最终,有意设计的摩擦不仅仅是一种心理干预,而是执行全球人工智能治理和维护社会认知弹性的基本技术前提。
🔬 方法详解
问题定义:论文旨在解决生成式人工智能快速发展背景下,由于过度追求“零摩擦”用户体验,导致用户认知代理权逐渐丧失的问题。现有方法往往侧重于提高AI系统的易用性和效率,却忽视了用户认知能力的保护,使得用户容易产生自动化偏见,过度依赖AI系统,最终放弃独立思考和判断的能力。
核心思路:论文的核心思路是引入“脚手架式认知摩擦”,即通过有意设计AI系统中的摩擦,例如引入认知冲突、挑战用户假设等方式,迫使用户进行更深入的思考和判断,从而避免认知代理权的让渡。这种“摩擦”并非阻碍用户使用,而是作为一种“脚手架”,辅助用户提升认知能力。
技术框架:论文提出的技术框架主要包含两个方面:一是多智能体系统(MAS)的应用,将MAS作为认知强制函数,例如设计成“魔鬼代言人”的角色,主动挑战用户的观点,引发认知冲突;二是多模态计算表型分析,通过整合注视转移熵、任务诱发电瞳测量、fNIRS和分层漂移扩散模型(HDDM)等技术,量化用户在认知摩擦下的认知努力程度,从而评估认知摩擦的效果。
关键创新:论文最重要的技术创新点在于将“认知摩擦”从心理学概念转化为可操作的技术手段,并提出了“脚手架式认知摩擦”的理论框架。与现有方法不同,该方法不是一味追求AI系统的流畅性和易用性,而是有意引入认知冲突,迫使用户进行更深入的思考,从而保护用户的认知主权。
关键设计:在多智能体系统设计方面,需要精心设计智能体的行为模式和交互方式,确保其能够有效地引发认知冲突,但又不会过度干扰用户的正常使用。在多模态计算表型分析方面,需要选择合适的生理指标和分析方法,准确量化用户的认知努力程度,并将其与决策结果进行关联分析。
🖼️ 关键图片
📊 实验亮点
论文通过对大量AI-HCI论文的分析,揭示了当前研究趋势中对“无摩擦可用性”的过度关注,以及对人类认知主权保护的忽视。实验结果表明,在2026年初,优化自主机器代理的研究比例显著上升,而捍卫人类认知主权的研究比例则大幅下降,这突显了认知代理权让渡的潜在风险。
🎯 应用场景
该研究成果可应用于各种人机交互系统,例如智能助手、决策支持系统、教育系统等。通过引入适当的认知摩擦,可以提高用户对AI系统输出结果的批判性思维能力,避免盲目信任和依赖,从而更好地利用AI技术辅助人类进行决策和创造。
📄 摘要(原文)
The proliferation of Generative Artificial Intelligence has transformed benign cognitive offloading into a systemic risk of cognitive agency surrender. Driven by the commercial dogma of "zero-friction" design, highly fluent AI interfaces actively exploit human cognitive miserliness, prematurely satisfying the need for cognitive closure and inducing severe automation bias. To empirically quantify this epistemic erosion, we deployed a zero-shot semantic classification pipeline ($τ=0.7$) on 1,223 high-confidence AI-HCI papers from 2023 to early 2026. Our analysis reveals an escalating "agentic takeover": a brief 2025 surge in research defending human epistemic sovereignty (19.1%) was abruptly suppressed in early 2026 (13.1%) by an explosive shift toward optimizing autonomous machine agents (19.6%), while frictionless usability maintained a structural hegemony (67.3%). To dismantle this trap, we theorize "Scaffolded Cognitive Friction," repurposing Multi-Agent Systems (MAS) as explicit cognitive forcing functions (e.g., computational Devil's Advocates) to inject germane epistemic tension and disrupt heuristic execution. Furthermore, we outline a multimodal computational phenotyping agenda -- integrating gaze transition entropy, task-evoked pupillometry, fNIRS, and Hierarchical Drift Diffusion Modeling (HDDM) -- to mathematically decouple decision outcomes from cognitive effort. Ultimately, intentionally designed friction is not merely a psychological intervention, but a foundational technical prerequisite for enforcing global AI governance and preserving societal cognitive resilience.