A Self-Supervised Learning of a Foundation Model for Analog Layout Design Automation

📄 arXiv: 2503.22143v1 📥 PDF

作者: Sungyu Jeong, Won Joon Choi, Junung Choi, Anik Biswas, Byungsub Kim

分类: eess.SP, cs.AI, cs.CV, cs.LG

发布日期: 2025-03-28

备注: 8 pages, 11 figures

期刊: IEEE Transactions on Circuits and Systems I: Regular Papers, 2025

DOI: 10.1109/TCSI.2025.3615646


💡 一句话要点

提出基于自监督学习的UNet基础模型,用于模拟版图设计自动化。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 模拟版图设计 自监督学习 基础模型 UNet 版图自动化

📋 核心要点

  1. 模拟版图设计缺乏标注数据且任务繁多,传统方法需要大量人工为每个任务单独设计模型。
  2. 提出基于UNet的基础模型,通过自监督学习从少量未标注数据中提取通用版图知识。
  3. 实验表明,该模型在多个下游任务上表现出色,仅需少量数据微调即可达到甚至超越从头训练的效果。

📝 摘要(中文)

本文提出了一种基于UNet的基础模型及其自监督学习方法,旨在解决模拟版图设计中的两个关键挑战:1) 缺乏高质量的标注数据;2) 模拟版图设计任务的多样性。为了进行自监督学习,我们提出了随机块采样和随机掩码技术,从而能够从小规模的未标注版图数据集中自动获取足够的训练数据。所获得的数据经过了大幅度增强,偏差更小,尺寸统一,并且包含足够的信息以应对各种合格的版图模式。通过使用这些数据进行预训练,所提出的基础模型可以学习到版图模式的隐式通用知识,从而可以使用少量特定任务的数据对其进行微调,以适应各种下游版图任务。微调为各种下游任务提供了一种高效且统一的方法,减少了为每个任务单独开发模型所需的大量人力。在实验中,该基础模型使用从6个经过硅验证的手动设计的模拟电路中获得的324,000个样本进行预训练,然后针对五个示例下游任务进行了微调:生成接触孔、过孔、虚指、N阱和金属布线。微调后的模型成功地为超过一千个未见过的版图输入执行了这些任务,为96.6%的样本生成了符合DRC/LVS标准的版图。与从头开始训练金属布线任务的模型相比,微调仅需1/8的数据即可达到相同的0.95的Dice系数。在相同的数据下,微调比从头开始训练实现了低90%的验证损失和高40%的基准分数。

🔬 方法详解

问题定义:模拟版图设计自动化面临两大挑战:一是缺乏高质量的标注数据,二是设计任务的多样性。传统方法通常需要针对每个特定任务,例如生成特定类型的版图元素(如过孔、金属线等),单独训练模型,这需要大量的人工标注数据和开发工作。现有方法难以泛化到新的版图设计任务上,效率低下。

核心思路:本文的核心思路是利用自监督学习方法,从少量未标注的版图数据中学习通用的版图设计知识,构建一个基础模型。该模型能够捕捉版图设计的内在规律和模式,从而可以通过少量特定任务的数据进行微调,快速适应新的下游任务。这种方法避免了为每个任务单独训练模型的需要,大大提高了效率。

技术框架:整体框架包含两个主要阶段:预训练阶段和微调阶段。在预训练阶段,使用大量的未标注版图数据,通过随机块采样和随机掩码等数据增强技术,训练一个基于UNet的基础模型。在微调阶段,使用少量特定任务的标注数据,对预训练好的基础模型进行微调,使其适应特定的版图设计任务。

关键创新:最重要的技术创新点在于提出了基于自监督学习的版图基础模型。与传统的监督学习方法相比,该方法能够利用大量的未标注数据,学习通用的版图设计知识,从而大大减少了对标注数据的需求。此外,随机块采样和随机掩码等数据增强技术能够有效地提高模型的泛化能力。

关键设计:模型采用UNet作为基础架构,这是一种常用的图像分割网络,适合处理版图图像。在自监督学习中,使用了随机块采样和随机掩码技术,将原始版图图像分割成多个小块,并随机掩盖其中的一部分,然后让模型预测被掩盖的部分。损失函数未知,但推测是重建损失或类似的损失函数,用于衡量模型预测结果与原始图像之间的差异。

📊 实验亮点

实验结果表明,该基础模型在五个下游任务(生成接触孔、过孔、虚指、N阱和金属布线)上均取得了良好的效果,为96.6%的样本生成了符合DRC/LVS标准的版图。与从头开始训练金属布线任务的模型相比,微调仅需1/8的数据即可达到相同的0.95的Dice系数。在相同的数据下,微调比从头开始训练实现了低90%的验证损失和高40%的基准分数。

🎯 应用场景

该研究成果可广泛应用于模拟集成电路的版图设计自动化领域,例如自动生成各种版图元素、自动布线、版图优化等。通过减少对人工标注数据的依赖,降低版图设计成本,缩短设计周期,并提高版图设计的质量和效率。未来,该方法有望推广到其他类型的集成电路版图设计中。

📄 摘要(原文)

We propose a UNet-based foundation model and its self-supervised learning method to address two key challenges: 1) lack of qualified annotated analog layout data, and 2) excessive variety in analog layout design tasks. For self-supervised learning, we propose random patch sampling and random masking techniques automatically to obtain enough training data from a small unannotated layout dataset. The obtained data are greatly augmented, less biased, equally sized, and contain enough information for excessive varieties of qualified layout patterns. By pre-training with the obtained data, the proposed foundation model can learn implicit general knowledge on layout patterns so that it can be fine-tuned for various downstream layout tasks with small task-specific datasets. Fine-tuning provides an efficient and consolidated methodology for diverse downstream tasks, reducing the enormous human effort to develop a model per task separately. In experiments, the foundation model was pre-trained using 324,000 samples obtained from 6 silicon-proved manually designed analog circuits, then it was fine-tuned for the five example downstream tasks: generating contacts, vias, dummy fingers, N-wells, and metal routings. The fine-tuned models successfully performed these tasks for more than one thousand unseen layout inputs, generating DRC/LVS-clean layouts for 96.6% of samples. Compared with training the model from scratch for the metal routing task, fine-tuning required only 1/8 of the data to achieve the same dice score of 0.95. With the same data, fine-tuning achieved a 90% lower validation loss and a 40% higher benchmark score than training from scratch.