Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making

📄 arXiv: 2408.09176v1 📥 PDF

作者: Siyu Wu, Alessandro Oltramari, Jonathan Francis, C. Lee Giles, Frank E. Ritter

分类: cs.AI, cs.CL, cs.SC

发布日期: 2024-08-17

备注: 20 pages, 8 figures, 2 tables


💡 一句话要点

提出LLM-ACTR以解决制造决策中的推理不足问题

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 认知架构 大型语言模型 制造决策 神经符号架构 推理能力 微调 知识嵌入

📋 核心要点

  1. 现有方法在复杂推理任务中表现不足,尤其在需要深思熟虑的决策时,LLMs常常出现幻觉现象。
  2. 论文提出LLM-ACTR,通过将ACT-R认知架构与LLMs结合,提取其内部决策过程的知识,增强LLMs的推理能力。
  3. 实验结果显示,LLM-ACTR在制造设计任务中相较于仅使用LLMs的基线方法,任务性能和决策能力均有显著提升。

📝 摘要(中文)

解决认知架构与大型语言模型(LLMs)之间的二元对立,旨在为生产系统提供可靠的机器推理能力。认知架构专注于模拟人类决策的内部机制,而LLMs则在推理时常表现出噪声和不准确性。为此,本文提出LLM-ACTR,一种将ACT-R认知架构与LLMs相结合的神经符号架构,通过提取和嵌入ACT-R的决策过程知识,提升LLMs在复杂推理任务中的表现。实验结果表明,该方法在制造设计任务中显著提高了任务性能和决策能力。

🔬 方法详解

问题定义:本文旨在解决认知架构与大型语言模型在推理能力上的不足,尤其是在复杂制造决策任务中的表现。现有方法在面对需要深思熟虑的推理时,常常出现缺乏足够基础的幻觉现象。

核心思路:论文的核心思路是通过将ACT-R认知架构的知识嵌入到LLMs中,形成一种新的神经符号架构LLM-ACTR,以实现更符合人类决策过程的推理能力。这样的设计旨在结合认知架构的深度推理能力与LLMs的广泛知识基础。

技术框架:LLM-ACTR的整体架构包括三个主要模块:首先提取ACT-R的内部决策过程知识;其次将这些知识嵌入到可训练的LLM适配层中;最后对LLMs进行微调,以适应下游预测任务。

关键创新:最重要的技术创新在于将认知架构的知识以潜在神经表示的形式嵌入到LLMs中,这一方法与传统的LLMs使用链式推理策略的方式有本质区别。

关键设计:在设计中,关键参数包括适配层的结构、损失函数的选择,以及微调过程中使用的优化算法等,这些设计确保了知识的有效嵌入和模型的高效训练。

🖼️ 关键图片

img_0

📊 实验亮点

实验结果表明,LLM-ACTR在新颖的制造设计任务中,任务性能相比于仅使用LLMs的基线方法有显著提升,具体表现为在复杂推理任务中的决策能力提高,减少了幻觉现象的发生。

🎯 应用场景

该研究的潜在应用领域包括智能制造、自动化决策支持系统以及人机协作等。通过提升机器在复杂决策任务中的推理能力,LLM-ACTR能够为生产系统提供更可靠的决策支持,进而提高生产效率和产品质量。未来,该方法可能在其他领域的智能决策中发挥重要作用。

📄 摘要(原文)

Resolving the dichotomy between the human-like yet constrained reasoning processes of Cognitive Architectures and the broad but often noisy inference behavior of Large Language Models (LLMs) remains a challenging but exciting pursuit, for enabling reliable machine reasoning capabilities in production systems. Because Cognitive Architectures are famously developed for the purpose of modeling the internal mechanisms of human cognitive decision-making at a computational level, new investigations consider the goal of informing LLMs with the knowledge necessary for replicating such processes, e.g., guided perception, memory, goal-setting, and action. Previous approaches that use LLMs for grounded decision-making struggle with complex reasoning tasks that require slower, deliberate cognition over fast and intuitive inference -- reporting issues related to the lack of sufficient grounding, as in hallucination. To resolve these challenges, we introduce LLM-ACTR, a novel neuro-symbolic architecture that provides human-aligned and versatile decision-making by integrating the ACT-R Cognitive Architecture with LLMs. Our framework extracts and embeds knowledge of ACT-R's internal decision-making process as latent neural representations, injects this information into trainable LLM adapter layers, and fine-tunes the LLMs for downstream prediction. Our experiments on novel Design for Manufacturing tasks show both improved task performance as well as improved grounded decision-making capability of our approach, compared to LLM-only baselines that leverage chain-of-thought reasoning strategies.