Socially Aware Motion Planning for Service Robots Using LiDAR and RGB-D Camera
作者: Duc Phu Nguyen, Thanh Long Nguyen, Minh Dang Tu, Cong Hoang Quach, Xuan Tung Truong, Manh Duong Phung
分类: cs.RO
发布日期: 2024-10-13
备注: In Proceedings of 2024, the 7th International Conference on Control, Robotics and Informatics (ICCRI 2024)
💡 一句话要点
提出一种融合激光雷达与RGB-D相机的社交感知服务机器人运动规划系统
🎯 匹配领域: 支柱一:机器人控制 (Robot Control)
关键词: 服务机器人 运动规划 社交感知 激光雷达 RGB-D相机
📋 核心要点
- 现有服务机器人导航系统通常只关注物理安全,忽略了人类的社会规范和舒适度,导致人机交互不自然。
- 该论文提出了一种社交感知运动规划系统,通过融合激光雷达和RGB-D相机数据,估计人类状态并建模其个人空间。
- 实验结果表明,该系统能够使机器人在动态环境中与人类协同导航,并尊重人类的个人空间,提升了人机交互体验。
📝 摘要(中文)
本文提出了一种用于服务机器人的运动规划系统,该系统在共享环境中与人类协同工作,不仅考虑物理安全,还考虑了社会规范。该系统融合了人类的位置、速度和个人空间等状态,用于社交感知导航。首先,从激光雷达和RGB-D相机中提取人类位置,然后使用卡尔曼滤波器融合这些信息以进行人类状态估计。接着,采用非对称高斯函数对基于人类状态的个人空间进行建模。该模型作为动态窗口法算法的输入,生成机器人的轨迹。实验表明,该机器人能够在动态环境中与人类一起导航,同时尊重他们的身体和心理舒适度。
🔬 方法详解
问题定义:服务机器人在与人类共享的环境中导航时,需要同时考虑物理安全和社会规范。现有方法往往只关注物理障碍的规避,忽略了人类的个人空间和社会行为习惯,导致机器人行为不自然,影响用户体验。因此,需要一种能够感知人类状态并尊重其个人空间的运动规划方法。
核心思路:该论文的核心思路是利用激光雷达和RGB-D相机获取人类的位置和速度信息,并使用卡尔曼滤波器进行融合,提高状态估计的准确性。然后,使用非对称高斯函数对人类的个人空间进行建模,将个人空间作为约束条件融入到动态窗口法(DWA)算法中,从而生成既安全又符合社会规范的机器人轨迹。
技术框架:该系统的整体框架包括以下几个主要模块:1) 人类状态感知模块:利用激光雷达和RGB-D相机获取环境信息,提取人类的位置信息。2) 人类状态估计模块:使用卡尔曼滤波器融合激光雷达和RGB-D相机的数据,估计人类的位置和速度。3) 个人空间建模模块:使用非对称高斯函数对人类的个人空间进行建模,考虑了人类的朝向和速度对个人空间的影响。4) 运动规划模块:将个人空间模型作为约束条件,输入到动态窗口法(DWA)算法中,生成机器人的运动轨迹。
关键创新:该论文的关键创新在于:1) 提出了一种基于非对称高斯函数的个人空间建模方法,能够更准确地描述人类的个人空间,并考虑了人类的朝向和速度的影响。2) 将个人空间模型融入到动态窗口法(DWA)算法中,实现了社交感知的运动规划。
关键设计:非对称高斯函数的参数设置是关键。论文中可能根据实验数据或先验知识,对高斯函数的方差进行调整,以适应不同人群和场景下的个人空间大小。卡尔曼滤波器的噪声参数也需要根据传感器特性进行调整,以获得更准确的状态估计。动态窗口法(DWA)算法中的速度和角速度采样范围、以及评价函数中的权重系数,也会影响机器人的运动行为。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该系统能够使机器人在动态环境中与人类协同导航,并尊重人类的个人空间。具体指标(未知,论文中未提供具体数值)表明,与传统方法相比,该系统能够显著减少机器人与人类的碰撞风险,并提高人类的舒适度。
🎯 应用场景
该研究成果可应用于各种服务机器人场景,例如医院、商场、养老院等。通过社交感知的运动规划,机器人能够更自然地与人类互动,提高服务效率和用户满意度。未来,该技术还可以扩展到其他类型的机器人,如自动驾驶汽车、无人机等,提升人机协作的安全性与和谐性。
📄 摘要(原文)
Service robots that work alongside humans in a shared environment need a navigation system that takes into account not only physical safety but also social norms for mutual cooperation. In this paper, we introduce a motion planning system that includes human states such as positions and velocities and their personal space for social-aware navigation. The system first extracts human positions from the LiDAR and the RGB-D camera. It then uses the Kalman filter to fuse that information for human state estimation. An asymmetric Gaussian function is then employed to model human personal space based on their states. This model is used as the input to the dynamic window approach algorithm to generate trajectories for the robot. Experiments show that the robot is able to navigate alongside humans in a dynamic environment while respecting their physical and psychological comfort.