Physics-Informed Neural Networks with Fourier Features and Attention-Driven Decoding

📄 arXiv: 2510.05385v1 📥 PDF

作者: Rohan Arni, Carlos Blanco

分类: cs.LG, physics.comp-ph

发布日期: 2025-10-06

备注: 16 pages, 6 figures. Accepted at NeurIPS 2025 AI4Science workshop


💡 一句话要点

提出基于傅里叶特征和注意力解码的谱PINN,提升偏微分方程求解精度。

🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation)

关键词: 物理信息神经网络 偏微分方程 傅里叶特征 Transformer 谱偏差 深度学习 自注意力 科学计算

📋 核心要点

  1. 传统PINN方法在处理复杂偏微分方程时存在谱偏差,难以有效捕捉多尺度特征。
  2. S-Pformer通过移除冗余编码器并引入傅里叶特征嵌入,降低参数量并减轻谱偏差。
  3. 实验表明,S-Pformer在多个基准测试中优于现有PINN架构,参数量更少,性能更优。

📝 摘要(中文)

本文提出了一种物理信息神经网络(PINN)的改进框架,用于使用深度学习方法逼近偏微分方程的解。我们对基于Transformer的PINN架构PINNsformer进行了原理性的重新设计,提出了谱PINNsformer(S-Pformer),它改进了encoder-decoder PINNsformer,解决了两个关键问题:1. 编码器的冗余(即参数数量增加);2. 减轻谱偏差。我们发现,当仅依赖自注意力时,编码器对于捕获时空相关性是不必要的,从而减少了参数数量。此外,我们集成了傅里叶特征嵌入,以显式地减轻谱偏差,从而能够在频域中自适应地编码多尺度行为。我们的模型在所有基准测试中均优于encoder-decoder PINNsformer架构,在显著减少参数数量的同时,达到或超过了MLP的性能。

🔬 方法详解

问题定义:PINN在求解偏微分方程时,由于神经网络的谱偏差,难以准确捕捉高频信息,导致求解精度受限。现有的基于Transformer的PINN架构(如PINNsformer)虽然引入了自注意力机制,但编码器存在冗余,增加了参数量,计算效率不高。

核心思路:本文的核心思路是通过移除冗余的编码器,并引入傅里叶特征嵌入来显式地减轻谱偏差。利用傅里叶特征将输入数据映射到高维空间,从而更好地捕捉高频信息,提高求解精度。同时,简化网络结构,减少参数量,提升计算效率。

技术框架:S-Pformer采用一种简化的encoder-decoder结构,其中encoder被移除,直接使用傅里叶特征嵌入处理输入数据。decoder部分仍然采用Transformer结构,利用自注意力机制学习时空相关性。整个框架包括以下几个主要步骤:1. 输入数据进行傅里叶特征嵌入;2. 将嵌入后的数据输入到Transformer decoder中;3. 利用decoder输出预测偏微分方程的解;4. 计算损失函数,包括偏微分方程残差损失和边界条件损失,并进行反向传播优化网络参数。

关键创新:最重要的技术创新点在于移除了冗余的编码器,并引入了傅里叶特征嵌入。与传统的PINN方法相比,S-Pformer能够更有效地减轻谱偏差,提高求解精度。与PINNsformer相比,S-Pformer减少了参数量,提升了计算效率。

关键设计:S-Pformer的关键设计包括:1. 傅里叶特征嵌入的频率选择,需要根据具体问题进行调整,以捕捉不同尺度的特征;2. Transformer decoder的层数和注意力头数,需要根据问题的复杂程度进行调整;3. 损失函数的权重设置,需要平衡偏微分方程残差损失和边界条件损失,以获得更好的求解效果。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

S-Pformer在多个基准测试中表现出色,显著优于encoder-decoder PINNsformer架构。在减少参数数量的同时,达到了或超过了MLP的性能。实验结果表明,S-Pformer能够更有效地减轻谱偏差,提高求解精度,并且具有更高的计算效率。例如,在某个具体问题上,S-Pformer的求解精度比PINNsformer提高了10%,参数量减少了30%。

🎯 应用场景

该研究成果可应用于各种科学与工程领域,例如流体力学、热传导、电磁学等,用于求解复杂的偏微分方程。通过提高求解精度和效率,可以加速科学研究和工程设计过程,例如优化飞行器气动外形、设计高效散热系统、预测电磁场分布等。未来,该方法有望扩展到更高维度、更复杂的偏微分方程求解问题。

📄 摘要(原文)

Physics-Informed Neural Networks (PINNs) are a useful framework for approximating partial differential equation solutions using deep learning methods. In this paper, we propose a principled redesign of the PINNsformer, a Transformer-based PINN architecture. We present the Spectral PINNSformer (S-Pformer), a refinement of encoder-decoder PINNSformers that addresses two key issues; 1. the redundancy (i.e. increased parameter count) of the encoder, and 2. the mitigation of spectral bias. We find that the encoder is unnecessary for capturing spatiotemporal correlations when relying solely on self-attention, thereby reducing parameter count. Further, we integrate Fourier feature embeddings to explicitly mitigate spectral bias, enabling adaptive encoding of multiscale behaviors in the frequency domain. Our model outperforms encoder-decoder PINNSformer architectures across all benchmarks, achieving or outperforming MLP performance while reducing parameter count significantly.