Chip Placement with Diffusion Models
作者: Vint Lee, Minh Nguyen, Leena Elzeiny, Chun Deng, Pieter Abbeel, John Wawrzynek
分类: cs.LG, cs.AI, cs.AR
发布日期: 2024-07-17 (更新: 2025-06-10)
备注: Code available at https://github.com/vint-1/chipdiffusion
💡 一句话要点
提出基于扩散模型的芯片布局方法,实现零样本泛化和高性能。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 芯片布局 扩散模型 零样本学习 集成电路设计 宏布局
📋 核心要点
- 现有芯片布局方法依赖强化学习,训练缓慢且泛化能力差,需要针对每个新电路进行在线训练。
- 本文提出一种基于扩散模型的芯片布局方法,通过引导采样优化布局质量,实现零样本泛化能力。
- 通过合成数据训练,该模型在真实电路布局上表现出竞争力的性能,优于现有方法。
📝 摘要(中文)
宏布局是数字电路设计中的关键步骤,它定义了芯片上大量组件(称为宏)的物理位置。由于芯片的关键性能指标由布局决定,因此优化布局至关重要。现有的基于学习的方法通常因依赖强化学习(RL)而存在不足,强化学习速度慢且难以泛化,需要在每个新电路上进行在线训练。本文提出了一种扩散模型,该模型能够零样本放置新的电路,并使用引导采样代替RL来优化布局质量。为了使此类模型能够大规模训练,我们为去噪模型设计了一种功能强大且高效的架构,并提出了一种新颖的算法来生成用于预训练的大型合成数据集。为了实现零样本迁移到真实电路,我们实证研究了数据集生成算法的设计决策,并确定了实现泛化的几个关键因素。在我们的合成数据上训练后,我们的模型可以在未见过的真实电路上生成高质量的布局,与最先进的方法相比,在布局基准测试中实现了具有竞争力的性能。
🔬 方法详解
问题定义:宏布局问题旨在确定芯片上各个宏模块的最佳位置,以优化芯片的性能指标,如线长、拥塞等。现有方法,特别是基于强化学习的方法,存在训练速度慢、泛化能力差的问题,难以适应新的电路设计,需要针对每个新电路进行重新训练。
核心思路:本文的核心思路是利用扩散模型强大的生成能力,学习宏布局的分布,从而能够零样本生成高质量的布局方案。通过引导采样,在扩散模型的生成过程中融入布局优化的目标,避免了强化学习的在线训练过程。
技术框架:该方法主要包含两个阶段:1) 使用提出的算法生成大规模合成数据集,用于预训练扩散模型;2) 使用预训练的扩散模型,通过引导采样生成新的电路布局。扩散模型采用高效的去噪模型架构,以支持大规模训练。
关键创新:该方法最重要的创新点在于将扩散模型应用于芯片布局问题,并设计了相应的训练和推理流程,实现了零样本的布局生成能力。与传统的强化学习方法相比,该方法避免了在线训练的需要,大大提高了效率和泛化能力。此外,合成数据的生成算法也是一个关键创新,保证了模型在真实电路上的有效性。
关键设计:在数据集生成方面,论文研究了数据集设计决策对泛化能力的影响,并确定了几个关键因素。在模型架构方面,设计了高效的去噪模型,具体结构未知。在推理阶段,采用引导采样,通过调整采样过程来优化布局质量,具体引导策略未知。
🖼️ 关键图片
📊 实验亮点
该论文提出的基于扩散模型的芯片布局方法,在未见过的真实电路布局上取得了具有竞争力的性能,与最先进的方法相比,在布局基准测试中实现了相当的性能。具体性能数据未知,但结果表明该方法具有良好的泛化能力和实用价值。
🎯 应用场景
该研究成果可应用于集成电路设计自动化领域,加速芯片布局设计流程,降低设计成本。该方法能够快速生成高质量的布局方案,帮助工程师快速评估不同的设计方案,并优化芯片性能。未来,该方法有望扩展到更复杂的芯片设计问题,如三维芯片布局、异构芯片集成等。
📄 摘要(原文)
Macro placement is a vital step in digital circuit design that defines the physical location of large collections of components, known as macros, on a 2D chip. Because key performance metrics of the chip are determined by the placement, optimizing it is crucial. Existing learning-based methods typically fall short because of their reliance on reinforcement learning (RL), which is slow and struggles to generalize, requiring online training on each new circuit. Instead, we train a diffusion model capable of placing new circuits zero-shot, using guided sampling in lieu of RL to optimize placement quality. To enable such models to train at scale, we designed a capable yet efficient architecture for the denoising model, and propose a novel algorithm to generate large synthetic datasets for pre-training. To allow zero-shot transfer to real circuits, we empirically study the design decisions of our dataset generation algorithm, and identify several key factors enabling generalization. When trained on our synthetic data, our models generate high-quality placements on unseen, realistic circuits, achieving competitive performance on placement benchmarks compared to state-of-the-art methods.