Breaking the Tuning Barrier: Zero-Hyperparameters Yield Multi-Corner Analysis Via Learned Priors
作者: Wei W. Xing, Kaiqi Huang, Jiazhan Liu, Hong Qiu, Shan Shen
分类: cs.LG, cs.AR
发布日期: 2026-03-13
备注: Accepted by DAC2026. Initial Version
💡 一句话要点
提出基于学习先验的零超参数方法,解决电路多角分析的调参难题。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 电路多角分析 零超参数 预训练模型 上下文学习 特征选择 集成电路设计 模型先验
📋 核心要点
- 现有电路多角分析方法在精度和自动化之间存在trade-off,AI模型精度高但需要耗时调参。
- 论文提出利用预训练基础模型学习先验知识,实现零超参数调整,快速适应不同电路。
- 实验表明,该方法在保持高精度的同时,验证成本降低超过10倍,显著提升效率。
📝 摘要(中文)
多角分析通过验证25+个工艺-电压-温度角点的电路,导致组合仿真成本为O(K × N),其中K表示角点数,N超过每个角点10^4个样本。现有方法面临根本性的权衡:简单模型实现自动化,但在线性电路失效;而先进的AI模型捕获复杂行为,但每次设计迭代需要数小时的超参数调整,形成调参壁垒。我们通过用从数百万回归任务中预训练的基础模型学习到的先验知识,取代工程先验(即模型规范)来打破这一壁垒。该模型执行上下文学习,无需调整或重新训练即可立即适应每个电路。其注意力机制通过识别操作条件之间共享的电路物理特性,自动跨角点传递知识。结合自动特征选择器(1152D到48D),我们的方法在零调整的情况下匹配最先进的精度(平均MRE低至0.11%),并将总验证成本降低超过10倍。
🔬 方法详解
问题定义:电路多角分析旨在验证电路在不同工艺、电压和温度条件下的性能,以确保其可靠性。传统方法要么依赖于简单的模型,无法处理非线性电路,要么使用复杂的AI模型,但需要针对每个电路进行耗时的超参数调整,这成为了一个主要的瓶颈,即“调参壁垒”。
核心思路:论文的核心思路是利用预训练的基础模型学习电路行为的先验知识,从而避免了针对每个电路进行超参数调整的需要。通过在大规模回归任务上进行预训练,模型能够学习到通用的电路物理特性,并能够通过上下文学习快速适应新的电路。
技术框架:该方法包含两个主要模块:1) 基于预训练基础模型的上下文学习模块,该模块利用注意力机制自动跨角点传递知识,无需针对每个角点进行单独训练;2) 自动特征选择器,用于将高维特征(1152D)降维到低维特征(48D),从而降低计算复杂度并提高模型的泛化能力。整体流程是首先使用特征选择器提取关键特征,然后将这些特征输入到预训练的基础模型中进行预测。
关键创新:最重要的技术创新点在于使用预训练的基础模型学习电路行为的先验知识,从而实现了零超参数调整。与现有方法相比,该方法无需针对每个电路进行单独的超参数优化,大大降低了验证成本。此外,注意力机制的使用使得模型能够自动跨角点传递知识,进一步提高了模型的效率和精度。
关键设计:论文中使用了预训练的回归模型作为基础模型,该模型在大规模回归任务上进行了预训练,学习到了通用的电路物理特性。特征选择器采用自动化的方法,选择对电路性能影响最大的特征。具体的损失函数和网络结构等技术细节在论文中可能没有详细描述,属于未公开信息。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在零超参数调整的情况下,能够达到最先进的精度(平均MRE低至0.11%),并且将总验证成本降低超过10倍。这表明该方法在保持高精度的同时,显著提高了电路多角分析的效率,打破了传统方法在精度和效率之间的trade-off。
🎯 应用场景
该研究成果可广泛应用于集成电路设计和验证领域,尤其是在高性能、高可靠性电路的设计中。通过降低电路多角分析的成本,可以加速电路设计周期,提高产品上市速度,并降低因电路缺陷导致的风险。该方法还有潜力应用于其他需要进行参数扫描和优化的工程领域。
📄 摘要(原文)
Yield Multi-Corner Analysis validates circuits across 25+ Process-Voltage-Temperature corners, resulting in a combinatorial simulation cost of $O(K \times N)$ where $K$ denotes corners and $N$ exceeds $10^4$ samples per corner. Existing methods face a fundamental trade-off: simple models achieve automation but fail on nonlinear circuits, while advanced AI models capture complex behaviors but require hours of hyperparameter tuning per design iteration, forming the Tuning Barrier. We break this barrier by replacing engineered priors (i.e., model specifications) with learned priors from a foundation model pre-trained on millions of regression tasks. This model performs in-context learning, instantly adapting to each circuit without tuning or retraining. Its attention mechanism automatically transfers knowledge across corners by identifying shared circuit physics between operating conditions. Combined with an automated feature selector (1152D to 48D), our method matches state-of-the-art accuracy (mean MREs as low as 0.11\%) with zero tuning, reducing total validation cost by over $10\times$.