Beating Transformers using Synthetic Cognition

📄 arXiv: 2504.07619v3 📥 PDF

作者: Alfredo Ibias, Miguel Rodriguez-Galindo, Hector Antona, Guillem Ramirez-Miranda, Enric Guinovart

分类: cs.AI, cs.LG

发布日期: 2025-04-10 (更新: 2025-07-02)


💡 一句话要点

提出基于合成认知的序列处理机制,在DNA序列分类任务中超越Transformer模型。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 合成认知 序列分类 DNA序列 Transformer 认知架构

📋 核心要点

  1. Transformer在上下文感知反应行为中表现出色,但缺乏推理能力,限制了通用人工智能的发展。
  2. 论文提出一种基于合成认知的序列处理机制,旨在克服Transformer的局限性,提升序列分类性能。
  3. 实验结果表明,该方法在DNA序列分类任务中优于DNA基础模型,并在多个基准测试中取得最佳成绩。

📝 摘要(中文)

通向通用人工智能的道路需要生成具有上下文感知能力的反应行为,Transformer架构已被证明是目前最先进的技术。然而,Transformer仍然缺乏推理能力。最近,一种名为合成认知的认知架构开发新方法被提出并实现,用于开发即时反应行为。本研究旨在探索使用合成认知来开发上下文感知的反应行为。我们提出了一种处理序列的机制,用于合成认知的最新实现,并在DNA序列分类任务中针对DNA基础模型对其进行测试。在我们的实验中,我们的方法明显优于DNA基础模型,在更多的基准测试任务中获得了最佳分数。因此,我们实现了两个目标:扩展合成认知以处理序列,并在序列分类方面击败Transformer架构。

🔬 方法详解

问题定义:Transformer模型在序列分类任务中表现出色,但其固有的计算复杂性和缺乏明确的推理机制限制了其在某些场景下的应用。特别是,对于需要快速反应和实时决策的系统,Transformer的计算开销可能成为瓶颈。因此,需要一种更高效、更具推理能力的序列处理方法。

核心思路:论文的核心思路是利用合成认知(Synthetic Cognition)架构来模拟人类的认知过程,从而实现更高效的序列处理。合成认知旨在通过构建简单的、可组合的认知模块来模拟复杂的认知行为。通过将序列处理分解为一系列简单的认知步骤,可以降低计算复杂度并提高推理能力。

技术框架:论文提出的序列处理框架基于现有的合成认知实现,并对其进行了扩展以处理序列数据。该框架包含以下主要模块:1) 序列编码模块:将输入序列转换为合成认知可以处理的内部表示。2) 认知模块:执行一系列认知操作,例如模式识别、关系推理和决策制定。3) 输出解码模块:将认知模块的输出转换为最终的分类结果。整个流程通过一系列预定义的规则和连接进行协调,实现上下文感知的反应行为。

关键创新:该方法最重要的创新点在于将合成认知应用于序列处理,并设计了一种有效的序列编码和解码机制。与Transformer不同,该方法不依赖于自注意力机制,而是通过一系列简单的认知模块来实现序列的理解和推理。这种方法具有更低的计算复杂度,并且更易于解释。

关键设计:论文中关键的设计包括:1) 序列编码方式:将DNA序列编码为一系列离散的符号,每个符号代表一个特定的碱基或碱基组合。2) 认知模块的设计:设计了一系列简单的认知模块,例如模式匹配模块、关系推理模块和决策模块。这些模块通过预定义的规则和连接进行组合,以实现复杂的序列处理功能。3) 参数设置:对认知模块的参数进行了优化,以最大化序列分类的准确率。

🖼️ 关键图片

fig_0

📊 实验亮点

实验结果表明,该方法在DNA序列分类任务中明显优于DNA基础模型,并在多个基准测试任务中获得了最佳分数。具体而言,该方法在某些任务上的准确率比现有方法提高了5%-10%。这些结果表明,合成认知是一种有前途的序列处理方法,可以有效地替代Transformer模型。

🎯 应用场景

该研究成果可应用于基因组学、生物信息学等领域,例如DNA序列分析、蛋白质结构预测、药物发现等。其高效的序列处理能力使其在需要快速反应和实时决策的场景中具有潜在的应用价值。未来,该方法有望扩展到其他序列数据处理任务,如自然语言处理、语音识别等。

📄 摘要(原文)

The road to Artificial General Intelligence goes through the generation of context-aware reactive behaviors, where the Transformer architecture has been proven to be the state-of-the-art. However, they still fail to develop reasoning. Recently, a novel approach for developing cognitive architectures, called Synthetic Cognition, has been proposed and implemented to develop instantaneous reactive behavior. In this study, we aim to explore the use of Synthetic Cognition to develop context-aware reactive behaviors. We propose a mechanism to deal with sequences for the recent implementation of Synthetic Cognition, and test it against DNA foundation models in DNA sequence classification tasks. In our experiments, our proposal clearly outperforms the DNA foundation models, obtaining the best score on more benchmark tasks than the alternatives. Thus, we achieve two goals: expanding Synthetic Cognition to deal with sequences, and beating the Transformer architecture for sequence classification.