AgriGS-SLAM: Orchard Mapping Across Seasons via Multi-View Gaussian Splatting SLAM
作者: Mirko Usuelli, David Rapado-Rincon, Gert Kootstra, Matteo Matteucci
分类: cs.RO, cs.CV
发布日期: 2025-10-30
💡 一句话要点
AgriGS-SLAM:基于多视角高斯溅射的果园跨季节建图SLAM
🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: SLAM 3D高斯溅射 激光雷达 多视角 果园 机器人 农业自动化
📋 核心要点
- 果园环境的SLAM面临重复几何结构、季节变化和树叶运动的挑战,导致传统方法性能下降。
- AgriGS-SLAM结合激光雷达里程计和多视角3D高斯溅射,利用批量光栅化和梯度驱动的地图生命周期来提升重建质量和效率。
- 实验表明,AgriGS-SLAM在跨季节的果园环境中,比现有3DGS-SLAM方法实现了更清晰、更稳定的重建和轨迹。
📝 摘要(中文)
本文提出AgriGS-SLAM,一个视觉-激光雷达SLAM框架,用于解决果园中自主机器人对3D场景的实时理解问题,该问题受到重复的行几何结构、季节性外观变化和风驱动的树叶运动的影响。AgriGS-SLAM将直接激光雷达里程计和回环闭合与多相机3D高斯溅射(3DGS)渲染相结合。通过互补视角的批量光栅化恢复被遮挡的果园结构,同时在关键帧之间执行的统一梯度驱动的地图生命周期保持精细细节并限制内存。位姿优化由基于概率激光雷达的深度一致性项引导,并通过相机投影反向传播以加强几何-外观耦合。该系统在苹果和梨园的休眠期、开花期和收获期进行了部署,使用标准化轨迹协议评估训练视角和新视角的合成,以减少评估中3DGS的过拟合。在跨季节和地点的实验中,AgriGS-SLAM比最新的3DGS-SLAM基线提供更清晰、更稳定的重建和更稳定的轨迹,同时保持了车载实时性能。虽然该方法在果园监测中得到了验证,但它也可以应用于其他需要鲁棒多模态感知的户外领域。
🔬 方法详解
问题定义:论文旨在解决果园环境中自主机器人实时3D场景理解的问题。现有SLAM方法在果园中面临挑战,包括重复的行几何结构导致定位模糊,季节性外观变化影响视觉特征匹配,以及风驱动的树叶运动引入噪声。这些因素共同导致传统SLAM方法在果园环境中的精度和鲁棒性下降。
核心思路:AgriGS-SLAM的核心思路是将直接激光雷达里程计和回环闭合与多相机3D高斯溅射(3DGS)渲染相结合。利用激光雷达提供精确的几何信息,并通过多视角3DGS渲染来融合来自多个相机的外观信息,从而克服单一视角下的遮挡和外观变化。梯度驱动的地图生命周期管理则用于保持地图的精细细节并限制内存占用。
技术框架:AgriGS-SLAM的整体框架包含以下几个主要模块:1) 直接激光雷达里程计:用于估计机器人的位姿。2) 回环闭合:用于校正累积误差。3) 多相机3DGS渲染:用于融合来自多个相机的外观信息,并生成3D场景的表示。4) 梯度驱动的地图生命周期管理:用于保持地图的精细细节并限制内存占用。5) 基于概率激光雷达的深度一致性项:用于优化位姿和3DGS参数。
关键创新:AgriGS-SLAM的关键创新在于将多视角3DGS渲染与激光雷达里程计相结合,并引入了梯度驱动的地图生命周期管理和基于概率激光雷达的深度一致性项。与现有3DGS-SLAM方法相比,AgriGS-SLAM能够更好地处理果园环境中的遮挡、外观变化和噪声,从而实现更精确、更鲁棒的3D场景重建。
关键设计:AgriGS-SLAM的关键设计包括:1) 使用批量光栅化来加速多视角3DGS渲染。2) 设计梯度驱动的地图生命周期管理策略,根据高斯分布的梯度信息来动态调整高斯分布的密度和位置。3) 引入基于概率激光雷达的深度一致性项,通过最小化激光雷达点云和渲染深度图之间的差异来优化位姿和3DGS参数。该损失函数的设计考虑了激光雷达测量的概率特性,从而提高了优化精度。
📊 实验亮点
AgriGS-SLAM在苹果和梨园的跨季节实验中表现出色,相较于现有3DGS-SLAM基线,重建质量更清晰、更稳定,轨迹也更平稳。该系统在车载平台上实现了实时性能,验证了其在实际应用中的可行性。实验结果表明,AgriGS-SLAM能够有效应对果园环境中的挑战,为自主机器人在农业领域的应用提供了有力的技术支持。
🎯 应用场景
AgriGS-SLAM主要应用于果园监测,可用于自主机器人的导航、果树生长状态评估、产量预测等。该方法也可扩展到其他户外环境,如农田、森林等,为农业自动化和环境监测提供支持。未来,该技术有望应用于更广泛的机器人应用场景,例如自动驾驶、城市建模等。
📄 摘要(原文)
Autonomous robots in orchards require real-time 3D scene understanding despite repetitive row geometry, seasonal appearance changes, and wind-driven foliage motion. We present AgriGS-SLAM, a Visual--LiDAR SLAM framework that couples direct LiDAR odometry and loop closures with multi-camera 3D Gaussian Splatting (3DGS) rendering. Batch rasterization across complementary viewpoints recovers orchard structure under occlusions, while a unified gradient-driven map lifecycle executed between keyframes preserves fine details and bounds memory. Pose refinement is guided by a probabilistic LiDAR-based depth consistency term, back-propagated through the camera projection to tighten geometry-appearance coupling. We deploy the system on a field platform in apple and pear orchards across dormancy, flowering, and harvesting, using a standardized trajectory protocol that evaluates both training-view and novel-view synthesis to reduce 3DGS overfitting in evaluation. Across seasons and sites, AgriGS-SLAM delivers sharper, more stable reconstructions and steadier trajectories than recent state-of-the-art 3DGS-SLAM baselines while maintaining real-time performance on-tractor. While demonstrated in orchard monitoring, the approach can be applied to other outdoor domains requiring robust multimodal perception.