Not an Obstacle for Dog, but a Hazard for Human: A Co-Ego Navigation System for Guide Dog Robots
作者: Ruiping Liu, Jingqi Zhang, Junwei Zheng, Yufan Chen, Peter Seungjune Lee, Di Wen, Kunyu Peng, Jiaming Zhang, Kailun Yang, Katja Mombaur, Rainer Stiefelhagen
分类: cs.RO
发布日期: 2026-03-20
💡 一句话要点
提出Co-Ego导航系统,解决导盲犬机器人的人-机视角不对称障碍物问题
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱六:视频提取与匹配 (Video Extraction)
关键词: 导盲犬机器人 人机交互 视角不对称 障碍物规避 协同导航
📋 核心要点
- 现有导盲犬机器人主要依赖自身地面传感器导航,忽略了对人体有潜在危险的高处障碍物,存在视角不对称问题。
- Co-Ego系统融合机器人地面视角和用户高处视角,采用双分支避障框架,提升导航安全性。
- 实验结果表明,跨视角融合显著降低了碰撞时间和用户认知负荷,验证了视角互补的有效性。
📝 摘要(中文)
导盲犬为盲人和低视力(BLV)人士提供了独立性,但由于数量有限,绝大多数BLV用户无法获得服务。四足机器人导盲犬提供了一种有希望的替代方案,但现有系统仅依赖于机器人地面传感器的导航,忽略了一类关键的危险:对于机器人来说是透明的,但对人体高度来说是危险的障碍物,例如弯曲的树枝。我们将此称为视角不对称问题,并提出了第一个明确解决该问题的系统。我们的Co-Ego系统采用双分支避障框架,该框架集成了以机器人为中心的地面传感与用户的高架自我中心视角,以确保全面的导航安全性。该系统部署在四足机器人上,并在受控用户研究中对蒙住眼睛的视力正常参与者在三种条件下进行了评估:无辅助、单视图和跨视图融合。结果表明,跨视图融合显著减少了碰撞时间和认知负荷,验证了视角互补对于安全机器人导盲犬导航的必要性。
🔬 方法详解
问题定义:论文旨在解决导盲犬机器人在导航过程中存在的“视角不对称”问题。现有导盲犬机器人主要依赖自身的地面传感器进行障碍物检测和避障,但忽略了对于人类而言存在潜在危险、但对于机器人来说可能透明的障碍物,例如低矮的树枝等。这种视角差异可能导致用户在导航过程中发生碰撞,影响安全性和用户体验。
核心思路:论文的核心思路是融合机器人自身的地面视角和用户的高处视角,构建一个协同的导航系统。通过同时考虑两个视角的障碍物信息,系统能够更全面地感知环境,从而避免机器人可以安全通过但对用户构成威胁的障碍物。这种协同视角的设计旨在提高导盲犬机器人的导航安全性,并提升用户体验。
技术框架:Co-Ego导航系统采用双分支的障碍物规避框架。一个分支是传统的机器人中心视角,利用机器人自身的传感器(例如激光雷达、摄像头等)获取地面环境信息,进行障碍物检测和路径规划。另一个分支是用户中心视角,通过安装在机器人上的摄像头获取用户前方的高处环境信息,检测对于用户而言存在的潜在障碍物。然后,系统将两个分支的障碍物信息进行融合,生成最终的避障策略。
关键创新:该论文最重要的创新点在于首次明确提出了导盲犬机器人导航中的“视角不对称”问题,并设计了Co-Ego系统来解决这个问题。与以往仅依赖机器人自身传感器的导航系统不同,Co-Ego系统通过融合用户视角的信息,能够更全面地感知环境,从而避免对用户构成威胁的障碍物。这种协同视角的设计是该论文的核心创新。
关键设计:论文中没有详细描述具体的参数设置、损失函数或网络结构等技术细节。但是,可以推断,用户视角分支可能采用图像处理或深度学习技术来检测高处的障碍物。两个分支的信息融合可能采用加权平均或更复杂的决策融合算法。具体的实现细节需要在论文的补充材料或后续研究中进一步了解。
🖼️ 关键图片
📊 实验亮点
论文通过受控用户研究验证了Co-Ego系统的有效性。实验结果表明,与单视角导航相比,跨视角融合显著降低了碰撞时间和用户的认知负荷。具体来说,跨视角融合条件下的碰撞时间显著低于单视角条件,并且用户在跨视角融合条件下的主观认知负荷也明显降低。这些结果表明,融合用户视角的信息对于提高导盲犬机器人的导航安全性至关重要。
🎯 应用场景
该研究成果可应用于导盲犬机器人、移动机器人、辅助驾驶等领域。通过融合不同视角的传感器信息,可以提高机器人在复杂环境中的导航安全性,尤其是在人机协作场景下,能够更好地保障用户的安全。未来,该技术有望推广到其他需要考虑用户安全性的机器人应用中,例如老年人辅助机器人、医疗机器人等。
📄 摘要(原文)
Guide dogs offer independence to Blind and Low-Vision (BLV) individuals, yet their limited availability leaves the vast majority of BLV users without access. Quadruped robotic guide dogs present a promising alternative, but existing systems rely solely on the robot's ground-level sensors for navigation, overlooking a critical class of hazards: obstacles that are transparent to the robot yet dangerous at human body height, such as bent branches. We term this the viewpoint asymmetry problem and present the first system to explicitly address it. Our Co-Ego system adopts a dual-branch obstacle avoidance framework that integrates the robot-centric ground sensing with the user's elevated egocentric perspective to ensure comprehensive navigation safety. Deployed on a quadruped robot, the system is evaluated in a controlled user study with sighted participants under blindfold across three conditions: unassisted, single-view, and cross-view fusion. Results demonstrate that cross-view fusion significantly reduces collision times and cognitive load, verifying the necessity of viewpoint complementarity for safe robotic guide dog navigation.