BRepMAE: Self-Supervised Masked BRep Autoencoders for Machining Feature Recognition
作者: Can Yao, Kang Wu, Zuheng Zheng, Siyuan Xing, Xiao-Ming Fu
分类: cs.GR
发布日期: 2026-02-26
备注: 16 pages
💡 一句话要点
提出BRepMAE自监督框架,用于CAD模型加工特征识别。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 加工特征识别 自监督学习 CAD模型 图神经网络 掩码自动编码器 边界表示 几何深度学习
📋 核心要点
- 现有加工特征识别方法在数据量不足时表现欠佳,限制了实际应用。
- BRepMAE通过掩码图自编码器,自监督学习CAD模型的几何属性表示。
- 实验表明,BRepMAE在少量数据下显著提升了加工特征识别率。
📝 摘要(中文)
本文提出了一种名为BRepMAE的掩码自监督学习框架,用于自动提取输入计算机辅助设计(CAD)模型的有价值的表示,以识别其加工特征。表示学习是在大规模、未标记的CAD模型数据集上进行的,使用从边界表示(BRep)导出的几何属性邻接图(gAAG)表示。自监督网络是一个掩码图自动编码器(MAE),它专注于重建BRep面的几何形状和属性,而不是图结构。经过预训练后,我们微调一个包含编码器和特定于任务的分类网络的网络,用于加工特征识别(MFR)。在实验中,我们的微调网络仅使用少量数据(例如,0.1%的训练数据)即可实现高识别率,从而显著增强了其在只有有限数据可用的真实(或私有)场景中的实用性。与其他MFR方法相比,我们的微调网络在相同数量的训练数据下实现了识别率的显著提高,尤其是在训练样本数量有限时。
🔬 方法详解
问题定义:论文旨在解决加工特征识别(MFR)问题,现有方法在训练数据有限的情况下,识别精度较低,泛化能力不足。尤其是在实际工业场景中,标注CAD模型数据成本高昂,难以获取大规模训练集。因此,如何利用少量标注数据实现高精度的加工特征识别是本研究要解决的核心问题。
核心思路:论文的核心思路是利用自监督学习方法,从大量未标注的CAD模型数据中学习到通用的几何表示。通过预训练一个掩码图自动编码器,使模型能够理解CAD模型的几何结构和属性,从而在下游任务中仅需少量标注数据即可达到良好的性能。这种方法避免了对大规模标注数据的依赖,提高了模型的实用性。
技术框架:BRepMAE框架主要包含以下几个阶段:1) 数据表示:将CAD模型转换为几何属性邻接图(gAAG),其中节点表示BRep面,边表示面之间的邻接关系,节点和边都包含几何属性信息。2) 预训练:使用掩码图自动编码器(MAE)在大量未标注的gAAG数据上进行自监督学习,通过掩盖部分节点并重建其几何属性,学习CAD模型的通用表示。3) 微调:将预训练的编码器与一个特定于任务的分类网络结合,使用少量标注数据进行微调,以实现加工特征识别。
关键创新:论文的关键创新在于:1) 提出了基于BRep的几何属性邻接图(gAAG)表示方法,能够有效地捕捉CAD模型的几何信息。2) 使用掩码图自动编码器(MAE)进行自监督学习,避免了对大规模标注数据的依赖。3) 专注于重建BRep面的几何形状和属性,而不是图结构,更符合加工特征识别的需求。
关键设计:在预训练阶段,采用了掩码比例为75%的随机掩码策略,即随机掩盖75%的节点。损失函数主要包括两个部分:几何损失和属性损失。几何损失采用Chamfer Distance来衡量重建的几何形状与原始几何形状之间的差异。属性损失采用均方误差(MSE)来衡量重建的属性与原始属性之间的差异。在微调阶段,使用了交叉熵损失函数来训练分类网络。
🖼️ 关键图片
📊 实验亮点
实验结果表明,BRepMAE在少量数据下表现出色。例如,仅使用0.1%的训练数据,BRepMAE就能达到较高的识别率。与其他加工特征识别方法相比,BRepMAE在相同数据量下显著提升了识别精度,尤其是在训练样本数量有限的情况下,提升幅度更为明显。这验证了BRepMAE在实际应用中的潜力。
🎯 应用场景
BRepMAE可应用于智能制造领域,例如自动化工艺规划、数控编程和质量检测。通过自动识别CAD模型中的加工特征,可以提高生产效率,降低人工成本,并减少人为错误。该方法尤其适用于中小企业,这些企业通常缺乏大规模标注数据和专业的AI团队。
📄 摘要(原文)
We propose a masked self-supervised learning framework, called BRepMAE, for automatically extracting a valuable representation of the input computer-aided design (CAD) model to recognize its machining features. Representation learning is conducted on a large-scale, unlabeled CAD model dataset using the geometric Attributed Adjacency Graph (gAAG) representation, derived from the boundary representation (BRep). The self-supervised network is a masked graph autoencoder (MAE) that focuses on reconstructing geometries and attributes of BRep facets, rather than graph structures. After pre-training, we fine-tune a network that contains both the encoder and a task-specific classification network for machining feature recognition (MFR). In the experiments, our fine-tuned network achieves high recognition rates with only a small amount of data (e.g., 0.1% of the training data), significantly enhancing its practicality in real-world (or private) scenarios where only limited data is available. Compared with other MFR methods, our fine-tuned network achieves a significant improvement in recognition rate with the same amount of training data, especially when the number of training samples is limited.