SafeLand: Safe Autonomous Landing in Unknown Environments with Bayesian Semantic Mapping

📄 arXiv: 2603.17430v1 📥 PDF

作者: Markus Gross, Andreas Greiner, Sai Bharadhwaj Matha, Felix Soest, Daniel Cremers, Henri Meeß

分类: cs.RO

发布日期: 2026-03-18

🔗 代码/项目: GITHUB


💡 一句话要点

SafeLand:基于贝叶斯语义地图的未知环境安全自主着陆系统

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 无人机自主着陆 语义分割 贝叶斯滤波 行为树 动态环境 安全着陆 视觉导航 机器人

📋 核心要点

  1. 现有无人机自主着陆方法依赖先验信息或重型传感器,难以应对未知动态环境中的安全挑战。
  2. SafeLand 提出了一种基于视觉的轻量级系统,通过在线语义地图构建和贝叶斯滤波实现安全着陆。
  3. 实验表明,SafeLand 在多种环境中实现了高成功率和亚秒级响应,且人类检测无假阴性。

📝 摘要(中文)

SafeLand 旨在解决无人机在未知动态环境中安全自主着陆的挑战,尤其是在靠近人员和基础设施的区域。现有方法依赖于先验地图、激光雷达等重型传感器、静态标记,或无法处理人类等非合作动态障碍物,限制了泛化能力和实时性能。SafeLand 是一种精简的、基于视觉的安全自主着陆系统,无需先验信息,仅使用相机和轻量级高度传感器。该方法通过深度学习语义分割构建在线语义地面地图,针对嵌入式部署进行了优化,并在七个公共航空数据集上训练(在 20 个类别中达到 70.22% 的 mIoU)。通过贝叶斯概率滤波和时间语义衰减进一步优化,以稳健地识别度量尺度的着陆点。行为树控制自适应着陆,迭代验证着陆点,并通过暂停、爬升或重新规划到其他着陆点来实时响应动态障碍物,从而最大限度地提高人员安全。在工业、城市和乡村环境中进行了 200 次模拟和 60 次端到端现场测试,高度高达 100 米,实现了人类检测零假阴性。与现有技术相比,SafeLand 实现了亚秒级的响应延迟,远低于以前的方法,同时保持了 95% 的成功率。SafeLand 的分割模型以 ROS 软件包的形式发布,以促进航空机器人领域的进一步研究。

🔬 方法详解

问题定义:论文旨在解决无人机在未知、动态环境中安全自主着陆的问题。现有方法通常依赖于预先构建的地图、激光雷达等重型传感器,或者静态标记,这限制了它们在复杂和变化环境中的应用。此外,现有方法在处理人类等非合作动态障碍物时表现不佳,存在安全隐患。

核心思路:SafeLand 的核心思路是利用轻量级的视觉传感器(相机和高度传感器)构建实时的、语义化的环境地图,并结合贝叶斯概率滤波来提高地图的准确性和鲁棒性。通过行为树来控制无人机的着陆过程,使其能够自适应地选择着陆点,并实时响应动态障碍物,从而确保安全着陆。

技术框架:SafeLand 的整体框架包括以下几个主要模块:1) 基于深度学习的语义分割模块,用于从相机图像中提取语义信息,构建语义地面地图;2) 贝叶斯概率滤波模块,用于融合时间信息,优化语义地图,提高其鲁棒性;3) 行为树控制模块,用于控制无人机的着陆过程,包括着陆点的选择、验证和动态障碍物的规避。

关键创新:SafeLand 的关键创新在于:1) 使用轻量级的视觉传感器实现了在未知环境中的自主着陆;2) 提出了基于贝叶斯概率滤波的语义地图优化方法,提高了地图的准确性和鲁棒性;3) 使用行为树来控制无人机的着陆过程,使其能够自适应地应对动态环境。与现有方法相比,SafeLand 不需要预先构建的地图,也不依赖于重型传感器,因此更具灵活性和可扩展性。

关键设计:语义分割模型基于深度学习,具体网络结构未知,但针对嵌入式部署进行了优化。训练数据集是七个公共航空数据集的整合,共包含 20 个类别。贝叶斯滤波中使用了时间语义衰减,以降低旧信息的权重,提高对环境变化的适应性。行为树的设计考虑了多种情况,包括着陆点的验证、动态障碍物的规避等。具体参数设置未知。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

SafeLand 在 200 次模拟和 60 次现场测试中表现出色,在高达 100 米的高度实现了 95% 的着陆成功率,并且在人类检测方面实现了零假阴性。其响应延迟为亚秒级,远低于现有技术。该论文还开源了 SafeLand 的分割模型,为相关研究提供了便利。

🎯 应用场景

SafeLand 技术可应用于物流配送、灾害救援、环境监测等领域。它能够使无人机在复杂、未知的环境中安全自主着陆,降低对基础设施的依赖,提高任务执行的效率和安全性。未来,该技术有望进一步扩展到其他类型的机器人,例如地面机器人和水下机器人。

📄 摘要(原文)

Autonomous landing of uncrewed aerial vehicles (UAVs) in unknown, dynamic environments poses significant safety challenges, particularly near people and infrastructure, as UAVs transition to routine urban and rural operations. Existing methods often rely on prior maps, heavy sensors like LiDAR, static markers, or fail to handle non-cooperative dynamic obstacles like humans, limiting generalization and real-time performance. To address these challenges, we introduce SafeLand, a lean, vision-based system for safe autonomous landing (SAL) that requires no prior information and operates only with a camera and a lightweight height sensor. Our approach constructs an online semantic ground map via deep learning-based semantic segmentation, optimized for embedded deployment and trained on a consolidation of seven curated public aerial datasets (achieving 70.22% mIoU across 20 classes), which is further refined through Bayesian probabilistic filtering with temporal semantic decay to robustly identify metric-scale landing spots. A behavior tree then governs adaptive landing, iteratively validates the spot, and reacts in real time to dynamic obstacles by pausing, climbing, or rerouting to alternative spots, maximizing human safety. We extensively evaluate our method in 200 simulations and 60 end-to-end field tests across industrial, urban, and rural environments at altitudes up to 100m, demonstrating zero false negatives for human detection. Compared to the state of the art, SafeLand achieves sub-second response latency, substantially lower than previous methods, while maintaining a superior success rate of 95%. To facilitate further research in aerial robotics, we release SafeLand's segmentation model as a plug-and-play ROS package, available at https://github.com/markus-42/SafeLand.