MINPO: Memory-Informed Neural Pseudo-Operator to Resolve Nonlocal Spatiotemporal Dynamics
作者: Farinaz Mostajeran, Aruzhan Tleubek, Salah A Faroughi
分类: cs.LG, math-ph, math.NA
发布日期: 2025-12-19
💡 一句话要点
提出MINPO:一种记忆增强神经伪算子,用于求解非局部时空动力学问题
🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)
关键词: 非局部动力学 神经伪算子 积分-微分方程 Kolmogorov-Arnold网络 深度学习 科学计算 物理建模
📋 核心要点
- 传统方法求解积分-微分方程时,卷积积分计算成本高昂,现有神经求解器泛化性不足。
- MINPO通过神经表示直接学习非局部算子及其逆,并重构解场,实现高效求解。
- 实验表明,MINPO在处理不同核类型和维度时表现出鲁棒性,并优于现有神经方法。
📝 摘要(中文)
许多物理系统表现出由积分-微分方程(IDEs)描述的非局部时空行为。求解IDEs的经典方法需要重复评估卷积积分,其成本随核的复杂性和维度迅速增加。现有的神经求解器可以加速这些计算的特定实例,但它们不能推广到不同的非局部结构。本文提出了一种记忆增强神经伪算子(MINPO),这是一个统一的框架,用于建模由长程空间相互作用和/或长期时间记忆引起的非局部动力学。MINPO采用Kolmogorov-Arnold网络(KANs)或多层感知器网络(MLPs)作为编码器,直接通过神经表示学习非局部算子及其逆,然后显式地重构未知的解场。学习过程由一个轻量级的非局部一致性损失项来保证,以加强学习到的算子和重构解之间的一致性。MINPO公式能够自然地捕获和有效地解决由各种IDEs及其子集(包括分数偏微分方程)控制的非局部时空依赖关系。评估结果表明MINPO的准确性,并证明了其在处理(i)不同核类型,(ii)不同核维度,以及(iii)重复评估核积分所产生的大量计算需求方面的鲁棒性。因此,MINPO超越了特定于问题的公式,为受非局部算子控制的系统提供了一个统一的框架。
🔬 方法详解
问题定义:论文旨在解决物理系统中常见的非局部时空动力学问题,这些问题通常由积分-微分方程(IDEs)描述。传统方法求解此类方程需要重复计算高维卷积积分,计算成本随核函数复杂度和维度增加而迅速上升。现有的神经求解器虽然在特定问题上表现良好,但缺乏跨不同非局部结构的泛化能力。
核心思路:MINPO的核心思路是通过神经网络直接学习非局部算子及其逆算子,从而避免了传统方法中耗时的卷积积分计算。通过学习算子的神经表示,MINPO能够更灵活地处理各种非局部结构,并实现更高效的求解。这种方法借鉴了伪谱方法的思想,即在频域或变换域进行计算,然后转换回时空域。
技术框架:MINPO的整体框架包括以下几个主要模块:1) 编码器:使用KANs或MLPs将输入数据编码成神经表示。2) 非局部算子学习:通过神经网络学习非局部算子及其逆算子。3) 解重构:利用学习到的逆算子,从神经表示中重构解场。4) 一致性损失:引入轻量级的非局部一致性损失项,以保证学习到的算子和重构解之间的一致性。
关键创新:MINPO的关键创新在于其统一的框架,能够处理由长程空间相互作用和/或长期时间记忆引起的非局部动力学。与现有方法相比,MINPO不依赖于特定问题的公式,而是通过学习非局部算子的神经表示来实现泛化。此外,MINPO引入的非局部一致性损失项能够有效地提高学习的稳定性和准确性。
关键设计:MINPO的关键设计包括:1) 编码器的选择:论文尝试了KANs和MLPs两种不同的网络结构作为编码器。2) 损失函数的设计:除了传统的监督学习损失外,还引入了非局部一致性损失,以保证学习到的算子和重构解之间的一致性。3) 网络结构的优化:针对不同的问题,需要对网络结构进行调整,以获得最佳的性能。
🖼️ 关键图片
📊 实验亮点
实验结果表明,MINPO在处理不同核类型和维度时,相比于传统的数值方法和基于MLP的神经求解器(如A-PINN和fPINN)以及基于KAN的变体(A-PIKAN和fPIKAN),表现出更高的准确性和鲁棒性。具体性能数据未在摘要中给出,但强调了MINPO在处理复杂非局部问题上的优势。
🎯 应用场景
MINPO可应用于各种涉及非局部时空动力学的物理系统建模,例如流体动力学、材料科学、图像处理和气候模拟等领域。该方法能够加速复杂系统的仿真和预测,为科学研究和工程应用提供更高效的工具。未来,MINPO有望扩展到更复杂的非局部问题,并与其他机器学习技术相结合,实现更强大的建模能力。
📄 摘要(原文)
Many physical systems exhibit nonlocal spatiotemporal behaviors described by integro-differential equations (IDEs). Classical methods for solving IDEs require repeatedly evaluating convolution integrals, whose cost increases quickly with kernel complexity and dimensionality. Existing neural solvers can accelerate selected instances of these computations, yet they do not generalize across diverse nonlocal structures. In this work, we introduce the Memory-Informed Neural Pseudo-Operator (MINPO), a unified framework for modeling nonlocal dynamics arising from long-range spatial interactions and/or long-term temporal memory. MINPO, employing either Kolmogorov-Arnold Networks (KANs) or multilayer perceptron networks (MLPs) as encoders, learns the nonlocal operator and its inverse directly through neural representations, and then explicitly reconstruct the unknown solution fields. The learning is guarded by a lightweight nonlocal consistency loss term to enforce coherence between the learned operator and reconstructed solution. The MINPO formulation allows to naturally capture and efficiently resolve nonlocal spatiotemporal dependencies governed by a wide spectrum of IDEs and their subsets, including fractional PDEs. We evaluate the efficacy of MINPO in comparison with classical techniques and state-of-the-art neural-based strategies based on MLPs, such as A-PINN and fPINN, along with their newly-developed KAN variants, A-PIKAN and fPIKAN, designed to facilitate a fair comparison. Our study offers compelling evidence of the accuracy of MINPO and demonstrates its robustness in handling (i) diverse kernel types, (ii) different kernel dimensionalities, and (iii) the substantial computational demands arising from repeated evaluations of kernel integrals. MINPO, thus, generalizes beyond problem-specific formulations, providing a unified framework for systems governed by nonlocal operators.