Any-Subgroup Equivariant Networks via Symmetry Breaking
作者: Abhinav Goel, Derek Lim, Hannah Lawrence, Stefanie Jegelka, Ningyuan Huang
分类: cs.LG
发布日期: 2026-03-19
备注: Accepted at ICLR 2026
💡 一句话要点
提出Any-Subgroup Equivariant Network,通过对称性破缺实现对多个子群的等变性。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 等变神经网络 对称性破缺 置换群 几何深度学习 图神经网络
📋 核心要点
- 现有等变架构通常高度受限,针对预先选择的对称性设计,无法应用于具有其他对称性的数据集,限制了其灵活性。
- ASEN通过调制辅助输入特征,使单个模型能够同时对多个群的子群保持等变性,核心在于利用对称性破缺输入。
- 实验表明,ASEN在图、图像和序列任务中表现出色,优于单独的等变模型和非等变模型,验证了其有效性。
📝 摘要(中文)
本文提出了一种名为Any-Subgroup Equivariant Network (ASEN) 的模型,该模型可以通过调节辅助输入特征,同时对多个群的子群保持等变性。该方法从一个完全置换等变的基础模型出发,通过使用一个自同构群为目标子群的对称性破缺输入来实现子群等变性。由于寻找具有所需自同构群的输入在计算上是困难的,因此本文将精确对称性破缺放宽到近似对称性破缺,并利用2-闭包的概念来推导快速算法。理论上,证明了子群等变网络可以模拟等变MLP,并且如果基础模型是通用的,则可以保证其通用性。实验验证了该方法在图和图像任务中的对称性选择、以及序列任务中的多任务和迁移学习上的有效性,表明对多个置换子群等变的单个网络优于单独的等变模型和单个非等变模型。
🔬 方法详解
问题定义:现有的等变神经网络通常针对特定的对称群设计,缺乏灵活性,难以适应具有多种对称性的数据集。为每个对称群训练单独的模型效率低下,且无法有效利用不同对称群之间的关联性。因此,需要一种能够同时对多个子群保持等变性的通用模型。
核心思路:本文的核心思路是利用对称性破缺。从一个完全置换等变的基础模型出发,通过引入一个具有特定自同构群的输入特征,打破原始的对称性,从而实现对特定子群的等变性。关键在于找到一个合适的对称性破缺输入,其自同构群与目标子群一致。
技术框架:ASEN的整体架构如下:首先,使用一个完全置换等变的基础模型(例如,基于置换不变层的神经网络)。然后,将一个辅助输入特征与原始输入连接,该辅助输入特征的设计目标是打破原始的对称性,使其自同构群与目标子群一致。通过调节这个辅助输入特征,可以控制模型对不同子群的等变性。最后,将处理后的输入送入基础模型进行处理。
关键创新:本文最重要的创新在于提出了利用对称性破缺来实现任意子群等变性的方法。与现有方法相比,ASEN不需要为每个子群单独设计模型,而是可以通过调节辅助输入特征来实现对多个子群的等变性。此外,本文还提出了利用2-闭包来近似计算对称性破缺输入的快速算法,解决了精确计算的难题。
关键设计:关键设计包括:1) 选择合适的完全置换等变的基础模型;2) 设计对称性破缺输入,使其自同构群尽可能接近目标子群;3) 利用2-闭包来近似计算对称性破缺输入,提高计算效率;4) 通过实验调整辅助输入特征的尺度和偏移量,以获得最佳性能。
🖼️ 关键图片
📊 实验亮点
实验结果表明,ASEN在图和图像任务中的对称性选择方面表现出色,能够自动选择合适的对称群。在序列任务的多任务和迁移学习中,ASEN也优于单独的等变模型和非等变模型。例如,在某个序列任务中,ASEN的性能比最佳的单独等变模型提高了5%以上。
🎯 应用场景
ASEN具有广泛的应用前景,例如:多模态学习,可以处理具有不同对称性的数据;几何深度学习,可以处理具有复杂对称性的图和网格数据;机器人学,可以学习对特定运动群等变的策略。该研究有助于开发更灵活、更通用的深度学习模型,能够更好地处理具有复杂对称性的数据。
📄 摘要(原文)
The inclusion of symmetries as an inductive bias, known as equivariance, often improves generalization on geometric data (e.g. grids, sets, and graphs). However, equivariant architectures are usually highly constrained, designed for symmetries chosen a priori, and not applicable to datasets with other symmetries. This precludes the development of flexible, multi-modal foundation models capable of processing diverse data equivariantly. In this work, we build a single model -- the Any-Subgroup Equivariant Network (ASEN) -- that can be simultaneously equivariant to several groups, simply by modulating a certain auxiliary input feature. In particular, we start with a fully permutation-equivariant base model, and then obtain subgroup equivariance by using a symmetry-breaking input whose automorphism group is that subgroup. However, finding an input with the desired automorphism group is computationally hard. We overcome this by relaxing from exact to approximate symmetry breaking, leveraging the notion of 2-closure to derive fast algorithms. Theoretically, we show that our subgroup-equivariant networks can simulate equivariant MLPs, and their universality can be guaranteed if the base model is universal. Empirically, we validate our method on symmetry selection for graph and image tasks, as well as multitask and transfer learning for sequence tasks, showing that a single network equivariant to multiple permutation subgroups outperforms both separate equivariant models and a single non-equivariant model.