AVOID: The Adverse Visual Conditions Dataset with Obstacles for Driving Scene Understanding

📄 arXiv: 2512.23215v1 📥 PDF

作者: Jongoh Jeong, Taek-Jin Song, Jong-Hwan Kim, Kuk-Jin Yoon

分类: cs.CV

发布日期: 2025-12-29


💡 一句话要点

AVOID:用于驾驶场景理解的恶劣视觉条件障碍物数据集

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 自动驾驶 道路障碍物检测 恶劣视觉条件 数据集 语义分割 深度估计 多模态感知

📋 核心要点

  1. 现有道路驾驶数据集缺乏在恶劣视觉条件下,与其它类别具有相同视觉域的道路障碍物数据。
  2. AVOID数据集旨在提供在各种天气和时间条件下捕获的意外道路障碍物数据,支持实时障碍物检测。
  3. 论文在AVOID数据集上对高性能实时网络进行了基准测试,并进行了多任务网络的消融研究。

📝 摘要(中文)

为了智能自动驾驶汽车,理解道路场景至关重要。尤其是在各种恶劣条件(如天气和日光)下,可靠地实时检测意外的小型道路障碍物是理想的。然而,现有的道路驾驶数据集通常只提供在正常或恶劣场景下获取的大规模图像,并且通常不包含与其他类别在相同视觉域中捕获的道路障碍物。为了解决这个问题,我们引入了一个名为AVOID的新数据集,即恶劣视觉条件数据集,用于在模拟环境中收集的实时障碍物检测。AVOID包含大量位于每条路径上的意外道路障碍物,这些障碍物是在各种天气和时间条件下捕获的。每张图像都配有相应的语义图和深度图、原始和语义LiDAR数据以及航点,从而支持大多数视觉感知任务。我们对高性能实时网络进行了障碍物检测任务的基准测试,并提出并使用全面的多任务网络进行语义分割、深度和航点预测任务的消融研究。

🔬 方法详解

问题定义:论文旨在解决自动驾驶场景下,在恶劣视觉条件下实时检测道路障碍物的问题。现有数据集要么只包含正常或恶劣场景,要么缺乏与其它类别视觉域一致的道路障碍物数据,导致模型在实际复杂场景下的泛化能力不足。

核心思路:论文的核心思路是构建一个包含大量恶劣视觉条件下的道路障碍物数据集AVOID。该数据集通过模拟环境生成,包含各种天气和时间条件下的道路障碍物,并提供丰富的标注信息,包括语义图、深度图、LiDAR数据和航点,从而为训练和评估自动驾驶感知模型提供更全面的数据支持。

技术框架:AVOID数据集的构建流程主要包括以下几个阶段:1) 在模拟环境中设置不同的天气和时间条件;2) 在道路上随机放置各种类型的障碍物;3) 沿道路路径采集图像数据,并记录相应的语义图、深度图、LiDAR数据和航点信息;4) 对采集到的数据进行标注和整理,构建最终的AVOID数据集。

关键创新:AVOID数据集的关键创新在于其专注于恶劣视觉条件下的道路障碍物检测,并提供了多模态的标注信息。与现有数据集相比,AVOID数据集更贴近实际驾驶场景,能够更好地支持自动驾驶感知模型的训练和评估。此外,该数据集还提供了原始和语义LiDAR数据,为多模态融合感知提供了可能。

关键设计:AVOID数据集包含了多种天气条件(如晴天、雨天、雾天)和时间条件(如白天、夜晚)。障碍物的类型包括行人、车辆、交通锥等。数据集的规模较大,包含大量的图像数据,以保证模型的训练效果。论文还提供了基于AVOID数据集的基准测试结果,以及多任务网络的消融研究结果,为后续研究提供了参考。

🖼️ 关键图片

img_0

📊 实验亮点

论文在AVOID数据集上对高性能实时网络进行了基准测试,结果表明,现有模型在恶劣视觉条件下的障碍物检测性能仍有提升空间。此外,论文还进行了多任务网络的消融研究,验证了语义分割、深度预测和航点预测等任务对障碍物检测性能的影响。这些实验结果为后续研究提供了重要的参考。

🎯 应用场景

该研究成果可应用于自动驾驶汽车、高级驾驶辅助系统(ADAS)等领域,提高车辆在恶劣视觉条件下对道路障碍物的感知能力,从而提升驾驶安全性和可靠性。AVOID数据集的发布将促进相关算法的开发和评估,推动自动驾驶技术的发展。

📄 摘要(原文)

Understanding road scenes for visual perception remains crucial for intelligent self-driving cars. In particular, it is desirable to detect unexpected small road hazards reliably in real-time, especially under varying adverse conditions (e.g., weather and daylight). However, existing road driving datasets provide large-scale images acquired in either normal or adverse scenarios only, and often do not contain the road obstacles captured in the same visual domain as for the other classes. To address this, we introduce a new dataset called AVOID, the Adverse Visual Conditions Dataset, for real-time obstacle detection collected in a simulated environment. AVOID consists of a large set of unexpected road obstacles located along each path captured under various weather and time conditions. Each image is coupled with the corresponding semantic and depth maps, raw and semantic LiDAR data, and waypoints, thereby supporting most visual perception tasks. We benchmark the results on high-performing real-time networks for the obstacle detection task, and also propose and conduct ablation studies using a comprehensive multi-task network for semantic segmentation, depth and waypoint prediction tasks.