FM-SIREN & FM-FINER: Nyquist-Informed Frequency Multiplier for Implicit Neural Representation with Periodic Activation
作者: Mohammed Alsakabi, Wael Mobeirek, John M. Dolan, Ozan K. Tonguz
分类: cs.CV
发布日期: 2025-09-27 (更新: 2025-09-30)
💡 一句话要点
FM-SIREN/FINER:通过Nyquist频率乘子提升周期激活隐式神经表示性能
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 隐式神经表示 周期激活函数 频率乘子 奈奎斯特频率 信号重建
📋 核心要点
- SIREN等INR网络因使用固定频率乘子导致特征冗余,限制了MLP的表达能力。
- FM-SIREN/FINER为每个神经元分配符合奈奎斯特频率的频率乘子,引入频率多样性。
- 实验表明,该方法能显著降低特征冗余,并在多种信号重建任务中超越现有方法。
📝 摘要(中文)
现有的基于周期激活的隐式神经表示(INR)网络,如SIREN和FINER,存在隐藏特征冗余的问题。由于使用固定的频率乘子,同一层内的神经元会捕获重叠的频率分量,限制了多层感知机(MLP)的表达能力。受离散正弦变换(DST)等经典信号处理方法的启发,我们提出了FM-SIREN和FM-FINER,它们为周期激活分配符合奈奎斯特频率的、神经元特定的频率乘子。与现有方法不同,我们的设计引入了频率多样性,而无需调整超参数或增加网络深度。这种简单而有效的修改将特征冗余度降低了近50%,并在各种INR任务中持续改进信号重建效果,包括拟合1D音频、2D图像和3D形状,以及神经辐射场(NeRF)的合成,在保持效率的同时优于其基线对应方法。
🔬 方法详解
问题定义:现有基于周期激活函数的隐式神经表示网络(如SIREN和FINER)在表达复杂信号时存在冗余问题。具体来说,由于同一层内的所有神经元都使用相同的固定频率乘子,导致它们学习到的特征在频率域上存在重叠,降低了网络的表达能力和学习效率。这种冗余限制了网络对高频细节的捕捉能力,影响了重建质量。
核心思路:论文的核心思路是为每个神经元分配一个独特的、符合奈奎斯特频率的频率乘子。通过这种方式,可以确保每个神经元学习到不同的频率分量,从而最大化网络的频率覆盖范围,减少特征冗余。这种设计借鉴了信号处理中的离散正弦变换(DST)的思想,旨在提高网络的频谱利用率。
技术框架:FM-SIREN和FM-FINER的整体架构与原始的SIREN和FINER类似,仍然是基于多层感知机(MLP)。主要的修改在于周期激活函数的使用方式。在每一层中,每个神经元的激活函数不再使用相同的频率乘子,而是使用一个根据神经元索引计算得到的、符合奈奎斯特频率的频率乘子。这个频率乘子是预先计算好的,并在训练过程中保持固定。
关键创新:最重要的技术创新在于神经元特定的、符合奈奎斯特频率的频率乘子的引入。与现有方法相比,这种方法无需额外的超参数调整或网络深度增加,即可有效地降低特征冗余,提高网络的表达能力。这种设计使得网络能够更有效地利用频谱资源,从而更好地重建复杂信号。
关键设计:关键的设计在于频率乘子的计算方式。论文根据奈奎斯特采样定理,为每个神经元分配一个不同的频率值,确保网络能够覆盖尽可能宽的频率范围。具体来说,频率乘子通常是根据神经元在层中的索引进行线性缩放,使其分布在0到奈奎斯特频率之间。此外,论文还探索了不同的激活函数,并针对不同的任务进行了优化。
🖼️ 关键图片
📊 实验亮点
实验结果表明,FM-SIREN和FM-FINER在多个INR任务中均优于其基线对应方法。例如,在图像重建任务中,特征冗余度降低了近50%,重建误差显著降低。在NeRF合成任务中,该方法能够生成更清晰、更逼真的图像。这些结果验证了该方法在提高隐式神经表示性能方面的有效性。
🎯 应用场景
该研究成果可广泛应用于需要高精度信号重建的领域,例如音频处理、图像处理、三维重建和神经辐射场(NeRF)等。通过提高隐式神经表示的表达能力,可以更有效地表示和生成复杂的信号和场景,从而提升相关应用的性能和用户体验。未来,该方法有望应用于虚拟现实、增强现实和机器人等领域。
📄 摘要(原文)
Existing periodic activation-based implicit neural representation (INR) networks, such as SIREN and FINER, suffer from hidden feature redundancy, where neurons within a layer capture overlapping frequency components due to the use of a fixed frequency multiplier. This redundancy limits the expressive capacity of multilayer perceptrons (MLPs). Drawing inspiration from classical signal processing methods such as the Discrete Sine Transform (DST), we propose FM-SIREN and FM-FINER, which assign Nyquist-informed, neuron-specific frequency multipliers to periodic activations. Unlike existing approaches, our design introduces frequency diversity without requiring hyperparameter tuning or additional network depth. This simple yet principled modification reduces the redundancy of features by nearly 50% and consistently improves signal reconstruction across diverse INR tasks, including fitting 1D audio, 2D image and 3D shape, and synthesis of neural radiance fields (NeRF), outperforming their baseline counterparts while maintaining efficiency.