Attenuation-Aware Weighted Optical Flow with Medium Transmission Map for Learning-based Visual Odometry in Underwater terrain
作者: Bach Nguyen Gia, Chanh Minh Tran, Kamioka Eiji, Tan Phan Xuan
分类: cs.CV
发布日期: 2024-07-18
🔗 代码/项目: GITHUB
💡 一句话要点
提出基于衰减感知加权光流的wflow-TartanVO,提升水下视觉里程计精度
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 水下视觉里程计 光流估计 介质透射图 水下成像 自主水下航行器
📋 核心要点
- 水下环境光照衰减和散射严重影响视觉里程计的精度,现有方法难以有效处理。
- 利用水下成像特性,将介质透射图作为权重,调整光流估计,抑制不确定区域。
- wflow-TartanVO无需微调预训练模型,在真实水下数据集上显著降低了绝对轨迹误差。
📝 摘要(中文)
本文旨在通过结合水下光学成像原理来改进水下环境中基于学习的单目视觉里程计(VO)。论文提出了一种新颖的wflow-TartanVO方法,通过操纵光流估计来提高自主水下航行器(AUV)的VO系统精度。该方法利用归一化的介质透射图作为权重图,调整估计的光流,以强调退化程度较低的区域,并抑制受水下光散射和吸收影响的不确定区域。wflow-TartanVO不需要对预训练的VO模型进行微调,从而提高了其对不同环境和相机模型的适应性。在不同真实水下数据集上的评估表明,wflow-TartanVO优于基线VO方法,绝对轨迹误差(ATE)显著降低。
🔬 方法详解
问题定义:水下视觉里程计面临的主要问题是水下环境的光学特性,如光吸收和散射,导致图像质量下降,特征提取困难,进而影响视觉里程计的精度和鲁棒性。现有的视觉里程计方法通常没有充分考虑这些水下成像的特殊性,导致在水下环境中的性能不佳。因此,需要一种能够有效利用水下成像信息来提高视觉里程计精度的方法。
核心思路:论文的核心思路是利用水下光学成像模型中的介质透射图来指导光流估计。介质透射图反映了光线在水中的传播情况,可以用来区分图像中受光衰减影响较小和较大的区域。通过将介质透射图作为权重,可以增强光流估计中可靠区域的贡献,抑制不可靠区域的贡献,从而提高光流估计的准确性,进而提升视觉里程计的性能。
技术框架:wflow-TartanVO的整体框架是在现有的TartanVO视觉里程计框架的基础上,增加了一个基于介质透射图的光流加权模块。具体流程如下:1) 输入水下图像;2) 计算归一化的介质透射图;3) 使用TartanVO估计原始光流;4) 将归一化的介质透射图作为权重,对原始光流进行加权;5) 使用加权后的光流进行视觉里程计计算。
关键创新:该方法最重要的创新点在于将水下光学成像模型与深度学习视觉里程计相结合。具体来说,就是利用介质透射图作为权重来指导光流估计,从而有效地利用了水下成像的先验知识。与传统的视觉里程计方法相比,该方法能够更好地适应水下环境的光学特性,提高视觉里程计的精度和鲁棒性。
关键设计:关键的设计在于介质透射图的计算和归一化,以及如何将其作为权重应用到光流估计中。介质透射图的计算通常基于水下图像的颜色衰减模型。论文中使用了归一化的介质透射图,确保权重在0到1之间,避免对光流估计产生过大的影响。加权的方式是将光流的每个像素乘以对应的权重值,从而调整光流的大小和方向。
🖼️ 关键图片
📊 实验亮点
实验结果表明,wflow-TartanVO在多个真实水下数据集上显著优于基线VO方法,绝对轨迹误差(ATE)得到了显著降低。具体而言,与原始的TartanVO相比,wflow-TartanVO在某些数据集上可以将ATE降低超过30%。这表明该方法能够有效地利用水下成像信息,提高视觉里程计的精度。
🎯 应用场景
该研究成果可应用于自主水下航行器(AUV)、水下机器人等领域,提升水下导航、水下勘探、水下环境监测等任务的精度和可靠性。通过提高水下视觉里程计的性能,可以实现更精确的水下定位和地图构建,为水下作业提供更可靠的技术支持,具有重要的实际应用价值。
📄 摘要(原文)
This paper addresses the challenge of improving learning-based monocular visual odometry (VO) in underwater environments by integrating principles of underwater optical imaging to manipulate optical flow estimation. Leveraging the inherent properties of underwater imaging, the novel wflow-TartanVO is introduced, enhancing the accuracy of VO systems for autonomous underwater vehicles (AUVs). The proposed method utilizes a normalized medium transmission map as a weight map to adjust the estimated optical flow for emphasizing regions with lower degradation and suppressing uncertain regions affected by underwater light scattering and absorption. wflow-TartanVO does not require fine-tuning of pre-trained VO models, thus promoting its adaptability to different environments and camera models. Evaluation of different real-world underwater datasets demonstrates the outperformance of wflow-TartanVO over baseline VO methods, as evidenced by the considerably reduced Absolute Trajectory Error (ATE). The implementation code is available at: https://github.com/bachzz/wflow-TartanVO