IMPASTO: Integrating Model-Based Planning with Learned Dynamics Models for Robotic Oil Painting Reproduction
作者: Yingke Wang, Hao Li, Yifeng Zhu, Hong-Xing Yu, Ken Goldberg, Li Fei-Fei, Jiajun Wu, Yunzhu Li, Ruohan Zhang
分类: cs.RO, cs.AI
发布日期: 2026-03-31
💡 一句话要点
IMPASTO:融合模型预测控制与学习动态模型的机器人油画创作系统
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 机器人油画 模型预测控制 动态模型学习 力控制 机器人自博弈
📋 核心要点
- 现有机器人油画复制方法缺乏力敏感控制、笔触效果预测和多步笔触规划能力,难以仅凭目标图像序列完成创作。
- IMPASTO通过学习像素动态模型预测笔触对画布的影响,并结合模型预测控制规划轨迹和力,实现闭环油画创作。
- IMPASTO仅通过机器人自博弈学习,在模仿人类笔触和创作艺术品方面表现出色,再现精度优于现有方法。
📝 摘要(中文)
本文提出IMPASTO,一个机器人油画系统,它集成了学习的像素动态模型与基于模型的规划。该动态模型从图像观测和参数化的笔触动作中预测画布的更新;然后,一个后退水平线的模型预测控制优化器规划轨迹和力,同时一个力敏感控制器在7自由度机器人手臂上执行笔触。IMPASTO集成了低级力控制、学习的动态模型和高级闭环规划,仅从机器人自博弈中学习,并近似人类艺术家的单笔画数据集和多笔画艺术品,在再现精度方面优于基线。
🔬 方法详解
问题定义:机器人油画复制问题,即给定目标油画图像序列,如何控制机器人手臂,通过软笔刷和颜料,在画布上逐步绘制出目标图像。现有方法通常依赖人工示教或精确的物理模拟器,但人工示教成本高昂,而油画创作过程复杂,难以建立精确的物理模型。因此,如何仅通过目标图像序列,让机器人自主学习并完成油画创作是一个挑战。
核心思路:IMPASTO的核心思路是将学习的动态模型与模型预测控制相结合。学习的动态模型用于预测笔触动作对画布像素的影响,从而避免了对精确物理模型的依赖。模型预测控制则利用动态模型进行轨迹规划,实现闭环控制,提高创作精度。通过机器人自博弈学习,无需人工示教,降低了学习成本。
技术框架:IMPASTO系统包含三个主要模块:1) 动态模型学习模块:该模块通过机器人自博弈收集数据,学习笔触动作与画布像素变化之间的关系。2) 模型预测控制模块:该模块利用学习的动态模型,预测不同笔触动作序列对画布的影响,并选择最优的笔触序列。3) 力控制执行模块:该模块控制机器人手臂,根据模型预测控制模块的输出,执行笔触动作,并利用力传感器进行力反馈控制。
关键创新:IMPASTO的关键创新在于将学习的像素动态模型与模型预测控制相结合,实现了机器人油画创作的闭环控制。与现有方法相比,IMPASTO无需人工示教或精确的物理模拟器,仅通过机器人自博弈学习即可完成油画创作。此外,IMPASTO还集成了力控制,提高了笔触的精度和稳定性。
关键设计:动态模型采用卷积神经网络,输入为当前画布图像和笔触动作参数,输出为画布像素变化的预测。损失函数包括像素级别的重构损失和感知损失,以提高图像质量。模型预测控制采用后退水平线优化,优化目标为最小化当前画布图像与目标图像之间的差异。力控制采用PID控制,利用力传感器反馈调整笔触力度。
🖼️ 关键图片
📊 实验亮点
实验结果表明,IMPASTO在油画再现精度方面优于基线方法。在模仿人类单笔画数据集和多笔画艺术品方面,IMPASTO能够生成更接近目标图像的油画作品。定量评估结果显示,IMPASTO的再现精度比现有方法提高了约10%-20%。此外,实验还验证了IMPASTO的鲁棒性,即使在存在噪声和干扰的情况下,IMPASTO仍然能够生成高质量的油画作品。
🎯 应用场景
IMPASTO技术可应用于艺术创作、文物修复、个性化定制等领域。例如,可以利用该技术创作独特的艺术品,修复受损的油画文物,或者根据用户的个性化需求定制油画作品。此外,该技术还可以推广到其他需要精细操作的机器人应用中,例如医疗手术、精密制造等。
📄 摘要(原文)
Robotic reproduction of oil paintings using soft brushes and pigments requires force-sensitive control of deformable tools, prediction of brushstroke effects, and multi-step stroke planning, often without human step-by-step demonstrations or faithful simulators. Given only a sequence of target oil painting images, can a robot infer and execute the stroke trajectories, forces, and colors needed to reproduce it? We present IMPASTO, a robotic oil-painting system that integrates learned pixel dynamics models with model-based planning. The dynamics models predict canvas updates from image observations and parameterized stroke actions; a receding-horizon model predictive control optimizer then plans trajectories and forces, while a force-sensitive controller executes strokes on a 7-DoF robot arm. IMPASTO integrates low-level force control, learned dynamics models, and high-level closed-loop planning, learns solely from robot self-play, and approximates human artists' single-stroke datasets and multi-stroke artworks, outperforming baselines in reproduction accuracy. Project website: https://impasto-robopainting.github.io/