Artificial Agency and Large Language Models

📄 arXiv: 2407.16190v2 📥 PDF

作者: Maud van Lier, Gorka Muñoz-Gil

分类: cs.AI, cs.CL, cs.ET

发布日期: 2024-07-23 (更新: 2024-07-24)

备注: Accepted for publication in journal Intellectica, special issue "Philosophies of AI: thinking and writing with LLMs" (Intellectica, issue 81)


💡 一句话要点

提出基于动态框架的人工智能体阈值概念模型,并探讨LLM实现人工自主性的可行性。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 人工智能体 大型语言模型 自主性 动态框架 代理模型 人工代理 哲学辩论 自适应系统

📋 核心要点

  1. 现有大型语言模型在实现真正自主性方面存在不足,缺乏动态适应环境和目标的能力。
  2. 论文提出了一种基于动态框架的代理模型,该框架包含历史、自适应能力和环境,并能随代理行为和目标而演变。
  3. 论文分析了现有LLM的局限性,并提出了结合特定架构和模块来实现人工自主性的潜在方法。

📝 摘要(中文)

本文探讨了大型语言模型(LLM)兴起后引发的关于以人工方式实现自主性的哲学辩论。我们通过提出一个理论模型来为这场辩论做出贡献,该模型可以作为人工代理的阈值概念。该模型将代理定义为这样一种系统:其行为和目标始终受到一个动态框架的影响,该框架由代理可访问的历史、其自适应能力和外部环境组成。反过来,这个框架又受到代理采取的行动和形成的目标的影响。我们借助该模型表明,目前最先进的LLM还不是代理,但它们包含一些暗示前进方向的要素。本文认为,Park et al. (2023)提出的代理架构与Boiko et al. (2023)中Coscientist等模块的结合,可能是一种以人工方式实现自主性的途径。最后,我们反思了在构建这样的人工代理时可能面临的障碍,并提出了未来研究的可能方向。

🔬 方法详解

问题定义:论文旨在解决如何定义和实现人工智能体(Artificial Agent)的问题,特别是探讨大型语言模型(LLM)是否具备成为真正自主代理的可能性。现有方法缺乏一个清晰的、可操作的代理阈值概念,难以评估LLM的自主性水平。

核心思路:论文的核心思路是提出一个动态框架模型,将代理定义为受其可访问的历史、自适应能力和外部环境共同影响的系统。这个框架是动态的,会随着代理的行为和目标而不断演变。通过这个框架,可以更全面地评估一个系统是否具备真正的自主性。

技术框架:该论文提出的技术框架是一个概念模型,而非具体的算法或系统。它包含以下几个关键组成部分:1) 代理的可访问历史:代理能够记住和利用过去的经验;2) 代理的自适应能力:代理能够根据环境变化调整自身行为;3) 代理的外部环境:代理所处的外部世界,包括其他代理和物理环境;4) 动态框架:上述三个组成部分相互作用,形成一个动态的框架,影响代理的行为和目标。代理的行为和目标反过来也会影响这个框架。

关键创新:该论文的关键创新在于提出了一个动态的、多维度的代理模型,超越了传统的基于规则或目标的代理定义。该模型强调了历史、自适应性和环境的重要性,并将其整合到一个统一的框架中。与现有方法相比,该模型更具灵活性和适应性,能够更好地捕捉真实世界中代理的复杂行为。

关键设计:该论文主要关注概念模型的构建,而非具体的算法或参数设置。关键设计在于动态框架的构建,需要仔细考虑历史、自适应性和环境之间的相互作用关系。论文建议可以借鉴Park et al. (2023)提出的代理架构和Boiko et al. (2023)中Coscientist等模块的设计思路,来实现模型中的各个组成部分。

📊 实验亮点

论文通过提出的动态框架模型,论证了当前最先进的LLM尚未达到真正自主代理的标准,但同时也指出了LLM中存在的、可以进一步发展的要素。论文建议结合Park et al. (2023)的代理架构和Boiko et al. (2023)的Coscientist模块,为实现人工自主性提供了一种潜在的途径。

🎯 应用场景

该研究成果可应用于开发更智能、更自主的人工智能系统,例如智能助手、自动驾驶汽车和机器人。通过理解和实现真正的自主性,可以构建更可靠、更安全、更符合人类价值观的人工智能系统。此外,该研究也为评估现有LLM的自主性水平提供了一个理论框架。

📄 摘要(原文)

The arrival of Large Language Models (LLMs) has stirred up philosophical debates about the possibility of realizing agency in an artificial manner. In this work we contribute to the debate by presenting a theoretical model that can be used as a threshold conception for artificial agents. The model defines agents as systems whose actions and goals are always influenced by a dynamic framework of factors that consists of the agent's accessible history, its adaptive repertoire and its external environment. This framework, in turn, is influenced by the actions that the agent takes and the goals that it forms. We show with the help of the model that state-of-the-art LLMs are not agents yet, but that there are elements to them that suggest a way forward. The paper argues that a combination of the agent architecture presented in Park et al. (2023) together with the use of modules like the Coscientist in Boiko et al. (2023) could potentially be a way to realize agency in an artificial manner. We end the paper by reflecting on the obstacles one might face in building such an artificial agent and by presenting possible directions for future research.