A Graph Attention Network-Based Framework for Reconstructing Missing LiDAR Beams

📄 arXiv: 2512.12410v1 📥 PDF

作者: Khalfalla Awedat, Mohamed Abidalrekab, Mohammad El-Yabroudi

分类: cs.CV, cs.AI

发布日期: 2025-12-13


💡 一句话要点

提出基于图注意力网络的LiDAR缺失波束重建框架,提升自动驾驶环境感知能力。

🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)

关键词: LiDAR点云 缺失波束重建 图注意力网络 自动驾驶 三维感知

📋 核心要点

  1. 旋转式LiDAR传感器易受环境因素和硬件老化的影响,导致垂直波束缺失,严重降低了自动驾驶系统的3D感知能力。
  2. 该论文提出一种基于图注意力网络(GAT)的框架,直接从单帧LiDAR数据中重建缺失的垂直通道,无需额外的相机或时间信息。
  3. 实验结果表明,该方法在KITTI数据集上取得了良好的重建效果,平均高度RMSE为11.67厘米,且大部分重建点误差在10厘米以内。

📝 摘要(中文)

本文提出了一种基于图注意力网络(GAT)的框架,用于重建旋转式LiDAR传感器中因硬件老化、灰尘、雪、雾或强反射引起的垂直波束缺失。该方法仅使用当前的LiDAR帧,无需相机图像或时间信息。每个LiDAR扫描被表示为一个非结构化的空间图:点是节点,边连接附近的点,同时保留原始的波束索引顺序。多层GAT学习局部几何邻域上的自适应注意力权重,并直接回归缺失位置的高度(z)值。在模拟通道缺失的1065个原始KITTI序列上进行训练和评估,该方法实现了11.67厘米的平均高度RMSE,并且87.98%的重建点落在10厘米的误差阈值内。在单个GPU上,每帧的推理时间为14.65秒,重建质量对于不同的邻域大小k保持稳定。这些结果表明,纯粹的图注意力模型仅在原始点云几何上运行,可以有效地恢复真实传感器退化下的缺失垂直波束。

🔬 方法详解

问题定义:论文旨在解决旋转式LiDAR传感器中常见的垂直波束缺失问题。现有方法可能依赖于额外的传感器信息(如相机图像)或时间信息,增加了系统的复杂性和成本。此外,直接处理原始点云数据并有效利用其空间结构仍然是一个挑战。

核心思路:论文的核心思路是将LiDAR点云数据表示为图结构,并利用图注意力网络(GAT)学习点之间的关系,从而实现缺失波束的重建。GAT能够自适应地学习邻域内不同点的权重,更好地捕捉局部几何特征。

技术框架:该框架主要包含以下几个步骤:1) 将LiDAR点云转换为图结构,其中点作为节点,相邻点之间建立边,并保留原始波束索引信息。2) 使用多层GAT网络学习每个节点的特征表示,GAT层通过注意力机制聚合邻域信息。3) 使用回归层预测缺失点的高度(z)值。4) 使用均方根误差(RMSE)作为损失函数,优化网络参数。

关键创新:该方法的主要创新在于:1) 提出了一种纯粹基于图注意力网络的点云重建方法,无需额外的传感器信息或时间信息。2) 利用GAT的注意力机制,自适应地学习邻域内不同点的权重,更好地捕捉局部几何特征。3) 将原始波束索引信息融入图结构中,有助于保持点云的空间结构。

关键设计:在图构建方面,采用了k近邻算法确定每个节点的邻域。GAT网络采用了多层结构,每层包含多个注意力头,以增强模型的表达能力。损失函数采用高度(z)值的均方根误差(RMSE)。实验中,邻域大小k是一个重要的参数,论文分析了不同k值对重建效果的影响。

📊 实验亮点

实验结果表明,该方法在KITTI数据集上取得了显著的重建效果,平均高度RMSE为11.67厘米,87.98%的重建点落在10厘米的误差阈值内。此外,该方法在单个GPU上的推理时间为14.65秒每帧,具有一定的实时性。实验还表明,重建质量对于不同的邻域大小k保持稳定,表明该方法具有较强的鲁棒性。

🎯 应用场景

该研究成果可应用于自动驾驶、机器人导航、三维重建等领域。通过重建缺失的LiDAR波束,可以提高环境感知的完整性和准确性,从而提升自动驾驶车辆的安全性和可靠性。此外,该方法还可以用于修复受损的LiDAR数据,延长传感器的使用寿命。

📄 摘要(原文)

Vertical beam dropout in spinning LiDAR sensors triggered by hardware aging, dust, snow, fog, or bright reflections removes entire vertical slices from the point cloud and severely degrades 3D perception in autonomous vehicles. This paper proposes a Graph Attention Network (GAT)-based framework that reconstructs these missing vertical channels using only the current LiDAR frame, with no camera images or temporal information required. Each LiDAR sweep is represented as an unstructured spatial graph: points are nodes and edges connect nearby points while preserving the original beam-index ordering. A multi-layer GAT learns adaptive attention weights over local geometric neighborhoods and directly regresses the missing elevation (z) values at dropout locations. Trained and evaluated on 1,065 raw KITTI sequences with simulated channel dropout, the method achieves an average height RMSE of 11.67 cm, with 87.98% of reconstructed points falling within a 10 cm error threshold. Inference takes 14.65 seconds per frame on a single GPU, and reconstruction quality remains stable for different neighborhood sizes k. These results show that a pure graph attention model operating solely on raw point-cloud geometry can effectively recover dropped vertical beams under realistic sensor degradation.