BRepMAE: Self-Supervised Masked BRep Autoencoders for Machining Feature Recognition

📄 arXiv: 2602.22701 📥 PDF

作者: Can Yao, Kang Wu, Zuheng Zheng, Siyuan Xing, Xiao-Ming Fu

分类: cs.GR

发布日期: 2026-02-28


💡 一句话要点

提出BRepMAE自监督框架,用于CAD模型加工特征识别。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 自监督学习 掩码图自编码器 CAD模型 加工特征识别 边界表示 几何属性邻接图 表示学习 智能制造

📋 核心要点

  1. 现有加工特征识别方法依赖大量标注数据,实际应用中数据标注成本高昂,限制了其应用。
  2. BRepMAE通过掩码图自编码器,在未标注CAD模型上进行自监督预训练,学习几何特征表示。
  3. 实验表明,BRepMAE仅需少量标注数据即可达到高识别率,显著优于其他加工特征识别方法。

📝 摘要(中文)

本文提出了一种名为BRepMAE的掩码自监督学习框架,用于自动提取输入计算机辅助设计(CAD)模型中有价值的表示,以识别其加工特征。表示学习是在大规模、未标记的CAD模型数据集上进行的,使用从边界表示(BRep)导出的几何属性邻接图(gAAG)表示。自监督网络是一个掩码图自编码器(MAE),它专注于重建BRep面的几何形状和属性,而不是图结构。经过预训练后,我们对一个包含编码器和特定任务分类网络的网络进行微调,用于加工特征识别(MFR)。在实验中,我们的微调网络仅使用少量数据(例如,0.1%的训练数据)就实现了高识别率,显著增强了其在只有有限数据可用的真实世界(或私有)场景中的实用性。与其他MFR方法相比,我们的微调网络在相同数量的训练数据下,识别率有了显著提高,尤其是在训练样本数量有限的情况下。

🔬 方法详解

问题定义:现有的加工特征识别(MFR)方法通常需要大量的标注数据进行训练,而CAD模型的标注成本很高,尤其是在特定领域或私有数据集上。这限制了这些方法在实际应用中的可行性。因此,如何利用未标注的CAD模型数据来提升MFR的性能是一个关键问题。

核心思路:本文的核心思路是利用自监督学习,通过掩码图自编码器(MAE)在大量的未标注CAD模型数据上进行预训练,学习到CAD模型几何特征的有效表示。然后,将预训练的编码器迁移到MFR任务中,并使用少量标注数据进行微调,从而实现高精度的加工特征识别。

技术框架:BRepMAE框架主要包含以下几个阶段:1) CAD模型数据预处理,将CAD模型转换为几何属性邻接图(gAAG)表示;2) 使用掩码图自编码器(MAE)在gAAG上进行自监督预训练,学习BRep面的几何形状和属性表示;3) 将预训练的编码器与一个特定任务的分类网络结合,用于加工特征识别;4) 使用少量标注数据对整个网络进行微调。

关键创新:BRepMAE的关键创新在于使用掩码图自编码器(MAE)进行自监督预训练,从而能够有效地利用大量的未标注CAD模型数据。与传统的图自编码器不同,BRepMAE更关注重建BRep面的几何形状和属性,而不是图结构本身。此外,该方法还提出了一种基于几何属性邻接图(gAAG)的CAD模型表示方法。

关键设计:BRepMAE使用掩码比例为75%的MAE进行预训练,即随机掩盖gAAG中75%的节点(BRep面),然后让编码器学习重建这些被掩盖的节点的几何形状和属性。损失函数主要包括几何损失(例如,面法向量、面积等)和属性损失(例如,面类型等)。编码器和解码器都采用图神经网络(GNN)结构,例如Graph Convolutional Network (GCN)或Graph Attention Network (GAT)。微调阶段使用交叉熵损失函数进行分类。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,BRepMAE在加工特征识别任务上取得了显著的性能提升。例如,在仅使用0.1%的训练数据进行微调的情况下,BRepMAE的识别率仍然很高,远高于其他MFR方法。与使用相同数量训练数据的其他方法相比,BRepMAE的识别率也有显著提高,尤其是在训练样本数量有限的情况下。

🎯 应用场景

BRepMAE可应用于智能制造领域,用于自动化CAD模型的加工特征识别,从而提高数控加工的效率和精度。该方法尤其适用于数据标注成本高昂的场景,例如定制化产品设计、小批量生产等。未来,该方法可以扩展到其他CAD模型分析任务,例如模型检索、相似性分析等。

📄 摘要(原文)

We propose a masked self-supervised learning framework, called BRepMAE, for automatically extracting a valuable representation of the input computer-aided design (CAD) model to recognize its machining features. Representation learning is conducted on a large-scale, unlabeled CAD model dataset using the geometric Attributed Adjacency Graph (gAAG) representation, derived from the boundary representation (BRep). The self-supervised network is a masked graph autoencoder (MAE) that focuses on reconstructing geometries and attributes of BRep facets, rather than graph structures. After pre-training, we fine-tune a network that contains both the encoder and a task-specific classification network for machining feature recognition (MFR). In the experiments, our fine-tuned network achieves high recognition rates with only a small amount of data (e.g., 0.1% of the training data), significantly enhancing its practicality in real-world (or private) scenarios where only limited data is available. Compared with other MFR methods, our fine-tuned network achieves a significant improvement in recognition rate with the same amount of training data, especially when the number of training samples is limited.