DiPPeST: Diffusion-based Path Planner for Synthesizing Trajectories Applied on Quadruped Robots
作者: Maria Stamatopoulou, Jianwei Liu, Dimitrios Kanoulas
分类: cs.RO
发布日期: 2024-05-29
💡 一句话要点
DiPPeST:基于扩散模型的四足机器人轨迹生成与路径规划
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 四足机器人 路径规划 扩散模型 视觉伺服 零样本学习
📋 核心要点
- 现有四足机器人路径规划方法在复杂或未知环境中泛化能力不足,需要大量训练数据或环境先验知识。
- DiPPeST利用扩散模型生成轨迹,并结合视觉信息进行实时局部路径优化,实现零样本自适应和避障。
- 实验表明,DiPPeST在复杂环境中避障成功率高,且在真实机器人上表现优于传统局部规划器。
📝 摘要(中文)
本文提出DiPPeST,一种新颖的基于图像和目标条件扩散模型的四足机器人路径规划轨迹生成器。DiPPeST是对我们之前提出的基于扩散的2D全局轨迹生成器(DiPPeR)的零样本自适应。该系统引入了一种新的局部实时路径细化策略,该策略对相机输入做出反应,无需任何进一步的训练、图像处理或环境解释技术。DiPPeST在标称环境中的避障成功率达到92%,在像素变化复杂度高达DiPPeR 3.5倍的环境中测试时,平均成功率为88%。开发了一个视觉伺服框架,允许在四足机器人上进行真实世界的执行,在不同环境中实现了80%的成功率,并展示了比复杂的最新局部规划器在狭窄环境中更好的行为。
🔬 方法详解
问题定义:四足机器人在复杂未知环境中进行安全高效的路径规划是一个挑战。现有的方法通常依赖于大量的训练数据来学习环境特征,或者需要预先构建环境地图,这限制了它们在真实世界中的应用。尤其是在狭窄或动态环境中,传统局部规划器容易陷入局部最优,导致规划失败。
核心思路:DiPPeST的核心思路是利用扩散模型强大的生成能力,生成初始的全局轨迹,然后通过视觉伺服框架,根据相机输入进行实时的局部路径优化。这种方法无需预先训练或环境建模,能够实现零样本的自适应路径规划。通过将全局规划和局部优化相结合,DiPPeST能够在复杂环境中实现更高的成功率和更好的鲁棒性。
技术框架:DiPPeST的整体框架包括以下几个主要模块:1) 基于扩散模型的全局轨迹生成器:该模块基于DiPPeR,生成初始的全局轨迹。2) 视觉伺服框架:该模块利用相机输入,对全局轨迹进行实时的局部优化,以避开障碍物。3) 机器人控制模块:该模块将优化后的轨迹转化为机器人的运动指令,控制机器人运动。整个流程是先通过扩散模型生成全局路径,然后利用视觉信息进行实时调整,最后控制机器人执行。
关键创新:DiPPeST的关键创新在于将扩散模型和视觉伺服框架相结合,实现零样本的四足机器人路径规划。与传统的基于优化的方法相比,DiPPeST无需预先训练或环境建模,能够更好地适应复杂和未知的环境。此外,DiPPeST的局部路径优化策略能够有效地避开障碍物,提高路径规划的成功率。
关键设计:DiPPeST的关键设计包括:1) 扩散模型的网络结构和训练方式:采用与DiPPeR相同的扩散模型结构,并进行零样本自适应。2) 视觉伺服框架的控制策略:根据相机输入,调整机器人的运动方向和速度,以避开障碍物。3) 损失函数的设计:在训练扩散模型时,采用合适的损失函数,以保证生成的轨迹的质量。
🖼️ 关键图片
📊 实验亮点
DiPPeST在标称环境中避障成功率达到92%,在复杂度更高的环境中达到88%。在真实四足机器人实验中,DiPPeST在不同环境中实现了80%的成功率,并且在狭窄环境中表现优于复杂的最新局部规划器,验证了其在实际应用中的有效性。
🎯 应用场景
DiPPeST可应用于搜索救援、物流运输、巡检等多种场景,尤其适用于复杂、动态或未知的环境。该研究成果有助于提升四足机器人在实际应用中的自主性和适应性,降低对环境先验知识的依赖,并为其他类型机器人的路径规划提供借鉴。
📄 摘要(原文)
We present DiPPeST, a novel image and goal conditioned diffusion-based trajectory generator for quadrupedal robot path planning. DiPPeST is a zero-shot adaptation of our previously introduced diffusion-based 2D global trajectory generator (DiPPeR). The introduced system incorporates a novel strategy for local real-time path refinements, that is reactive to camera input, without requiring any further training, image processing, or environment interpretation techniques. DiPPeST achieves 92% success rate in obstacle avoidance for nominal environments and an average of 88% success rate when tested in environments that are up to 3.5 times more complex in pixel variation than DiPPeR. A visual-servoing framework is developed to allow for real-world execution, tested on the quadruped robot, achieving 80% success rate in different environments and showcasing improved behavior than complex state-of-the-art local planners, in narrow environments.