BrainNetMLP: An Efficient and Effective Baseline for Functional Brain Network Classification
作者: Jiacheng Hou, Zhenjie Song, Ercan Engin Kuruoglu
分类: q-bio.NC, cs.CV
发布日期: 2025-05-14 (更新: 2025-07-21)
备注: Accepted for oral presentation at the 1st MICCAI Workshop on Efficient Medical AI
🔗 代码/项目: GITHUB
💡 一句话要点
提出BrainNetMLP,一种高效且有效的基于MLP的功能脑网络分类基线方法
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 功能脑网络分类 多层感知器 双分支网络 空间频谱特征融合 脑疾病诊断
📋 核心要点
- 现有功能脑网络分类方法过度依赖复杂模型(如GNN、Transformer),但性能提升不明显,模型效率较低。
- BrainNetMLP基于简单的多层感知器(MLP),通过双分支结构融合空间连接和频谱信息,实现高效的时空特征提取。
- 在HCP和ABIDE数据集上的实验表明,BrainNetMLP能达到state-of-the-art的性能,验证了MLP作为高效替代方案的潜力。
📝 摘要(中文)
最近的研究在功能脑网络分类方面取得了很大进展,通过将大脑建模为感兴趣区域(ROI)的网络,并利用它们之间的连接来理解大脑功能和诊断精神疾病。已经开发了各种深度学习架构,包括卷积神经网络、图神经网络以及最近的Transformer。然而,尽管这些模型的复杂性不断增加,但性能提升并不显著。这引出了一个问题:增加模型复杂性是否必然导致更高的分类准确率?在本文中,我们重新审视了最简单的深度学习架构,即多层感知器(MLP),并提出了一种纯粹基于MLP的方法,名为BrainNetMLP,用于功能脑网络分类,该方法利用了MLP的优势,包括高效的计算和更少的参数。此外,BrainNetMLP采用双分支结构来共同捕获空间连接和频谱信息,从而实现精确的时空特征融合。我们在两个公开且流行的脑网络分类数据集(人类连接组计划(HCP)和自闭症脑成像数据交换(ABIDE))上评估了我们提出的BrainNetMLP。实验结果表明,纯粹基于MLP的方法可以实现最先进的性能,揭示了基于MLP的模型作为功能脑网络分类中更高效且有效的替代方案的潜力。
🔬 方法详解
问题定义:现有功能脑网络分类方法通常采用复杂的深度学习模型,例如卷积神经网络、图神经网络和Transformer。然而,这些模型的复杂性增加并没有带来显著的性能提升,反而导致计算成本增加和参数量增大。因此,需要一种更高效且有效的模型,能够在保持甚至提高分类准确率的同时,降低计算复杂度。
核心思路:论文的核心思路是重新审视最简单的深度学习架构——多层感知器(MLP),并证明其在功能脑网络分类任务中具有强大的潜力。通过精心设计的网络结构和特征融合策略,充分利用MLP的计算效率和参数较少的优势,实现高效且有效的分类。
技术框架:BrainNetMLP采用双分支结构,分别处理空间连接信息和频谱信息。一个分支专注于学习脑网络的空间拓扑结构,另一个分支则提取脑网络的频谱特征。两个分支的输出随后被融合,以实现更全面的时空特征表示。最终,融合后的特征被输入到分类器中进行分类。
关键创新:该方法最重要的创新点在于,它证明了简单的MLP结构在功能脑网络分类任务中可以达到与复杂模型相当甚至更好的性能。通过双分支结构,有效地融合了空间和频谱信息,从而提高了分类准确率。此外,该方法具有计算效率高、参数量少的优点,使其更易于部署和应用。
关键设计:BrainNetMLP的关键设计包括:1) 双分支结构,分别处理空间和频谱信息;2) 合适的网络层数和神经元数量,以平衡模型复杂度和性能;3) 适当的激活函数和正则化方法,以防止过拟合;4) 损失函数选择,例如交叉熵损失函数,用于优化分类性能。具体的参数设置和网络结构细节需要在实验中进行调整和优化。
🖼️ 关键图片
📊 实验亮点
实验结果表明,BrainNetMLP在HCP和ABIDE数据集上均取得了state-of-the-art的性能。例如,在ABIDE数据集上,BrainNetMLP的分类准确率超过了现有的一些复杂模型,并且具有更少的参数和更快的计算速度。这些结果验证了基于MLP的方法在功能脑网络分类中的有效性和高效性。
🎯 应用场景
BrainNetMLP可应用于多种脑疾病的辅助诊断,例如自闭症、阿尔茨海默病等。该方法具有计算效率高、易于部署的优点,可以方便地集成到临床诊断系统中,为医生提供更准确、更快速的诊断结果。此外,该研究也为未来脑网络分析模型的设计提供了新的思路,即在保证性能的同时,应尽可能降低模型的复杂性。
📄 摘要(原文)
Recent studies have made great progress in functional brain network classification by modeling the brain as a network of Regions of Interest (ROIs) and leveraging their connections to understand brain functionality and diagnose mental disorders. Various deep learning architectures, including Convolutional Neural Networks, Graph Neural Networks, and the recent Transformer, have been developed. However, despite the increasing complexity of these models, the performance gain has not been as salient. This raises a question: Does increasing model complexity necessarily lead to higher classification accuracy? In this paper, we revisit the simplest deep learning architecture, the Multi-Layer Perceptron (MLP), and propose a pure MLP-based method, named BrainNetMLP, for functional brain network classification, which capitalizes on the advantages of MLP, including efficient computation and fewer parameters. Moreover, BrainNetMLP incorporates a dual-branch structure to jointly capture both spatial connectivity and spectral information, enabling precise spatiotemporal feature fusion. We evaluate our proposed BrainNetMLP on two public and popular brain network classification datasets, the Human Connectome Project (HCP) and the Autism Brain Imaging Data Exchange (ABIDE). Experimental results demonstrate pure MLP-based methods can achieve state-of-the-art performance, revealing the potential of MLP-based models as more efficient yet effective alternatives in functional brain network classification. The code will be available at https://github.com/JayceonHo/BrainNetMLP.