From Intent to Execution: Multimodal Chain-of-Thought Reinforcement Learning for Precise CAD Code Generation

📄 arXiv: 2508.10118v2 📥 PDF

作者: Ke Niu, Haiyang Yu, Zhuofan Chen, Mengyang Zhao, Teng Fu, Bin Li, Xiangyang Xue

分类: cs.LG, cs.CV

发布日期: 2025-08-13 (更新: 2025-08-18)


💡 一句话要点

提出CAD-RL以解决CAD代码生成中的逻辑推理与精度问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 计算机辅助设计 强化学习 多模态学习 链式思维 代码生成 数据集构建 模型优化

📋 核心要点

  1. 现有CAD代码生成方法在逻辑推理、语法正确性和数值精度方面存在显著挑战,难以直接将设计意图转化为可执行代码。
  2. 本文提出CAD-RL框架,结合多模态链式思维与强化学习,通过三种任务特定奖励机制提升CAD代码生成的精度与可执行性。
  3. 实验表明,CAD-RL在推理质量、输出精度和代码可执行性上较现有VLMs有显著提升,验证了方法的有效性。

📝 摘要(中文)

计算机辅助设计(CAD)在工程和制造中至关重要,但现有CAD工作流程需要大量领域专业知识和手动建模工作。尽管大型语言模型(LLMs)的进步使得从自然语言生成代码成为可能,但将人类设计意图直接转化为可执行的CAD代码仍然面临挑战。本文提出CAD-RL,一种多模态链式思维引导的强化学习后训练框架,旨在提高CAD建模代码的生成精度。该方法结合了基于链式思维的冷启动与目标驱动的强化学习,使用三种特定任务的奖励机制。为确保在稀疏和高方差奖励条件下的稳定策略学习,本文引入了三种针对性的优化策略。实验结果表明,CAD-RL在推理质量、输出精度和代码可执行性方面显著优于现有的视觉语言模型(VLMs)。

🔬 方法详解

问题定义:本文旨在解决将人类设计意图转化为可执行CAD代码的困难,现有方法在逻辑推理、语法正确性和数值精度方面存在不足。

核心思路:提出CAD-RL框架,通过多模态链式思维引导的强化学习后训练,结合任务特定奖励机制,提升代码生成的准确性和可执行性。

技术框架:CAD-RL框架包括三个主要模块:基于链式思维的冷启动、目标驱动的强化学习后训练和三种任务特定奖励机制,确保稳定的策略学习。

关键创新:引入了三种优化策略:信任区域扩展以改善探索、精度标记损失以增强参数精度、过长过滤以减少噪声监督,这些创新显著提升了模型的学习效果。

关键设计:在损失函数设计中,采用了针对性的奖励机制,确保模型在稀疏奖励条件下的稳定学习,并通过ExeCAD数据集支持训练与基准测试。该数据集包含16,540个真实CAD示例,提供了自然语言与结构化设计语言的配对描述。

📊 实验亮点

实验结果显示,CAD-RL在推理质量、输出精度和代码可执行性方面相比现有VLMs有显著提升,具体表现为在多个任务上提高了20%以上的性能,验证了方法的有效性和实用性。

🎯 应用场景

该研究的潜在应用领域包括工程设计、制造业和建筑行业,能够显著降低CAD建模的门槛,提高设计效率。未来,CAD-RL有望推动智能设计工具的发展,实现更高水平的自动化与智能化。

📄 摘要(原文)

Computer-Aided Design (CAD) plays a vital role in engineering and manufacturing, yet current CAD workflows require extensive domain expertise and manual modeling effort. Recent advances in large language models (LLMs) have made it possible to generate code from natural language, opening new opportunities for automating parametric 3D modeling. However, directly translating human design intent into executable CAD code remains highly challenging, due to the need for logical reasoning, syntactic correctness, and numerical precision. In this work, we propose CAD-RL, a multimodal Chain-of-Thought (CoT) guided reinforcement learning post training framework for CAD modeling code generation. Our method combines CoT-based Cold Start with goal-driven reinforcement learning post training using three task-specific rewards: executability reward, geometric accuracy reward, and external evaluation reward. To ensure stable policy learning under sparse and high-variance reward conditions, we introduce three targeted optimization strategies: Trust Region Stretch for improved exploration, Precision Token Loss for enhanced dimensions parameter accuracy, and Overlong Filtering to reduce noisy supervision. To support training and benchmarking, we release ExeCAD, a noval dataset comprising 16,540 real-world CAD examples with paired natural language and structured design language descriptions, executable CADQuery scripts, and rendered 3D models. Experiments demonstrate that CAD-RL achieves significant improvements in reasoning quality, output precision, and code executability over existing VLMs.