Motion-aware Event Suppression for Event Cameras

📄 arXiv: 2602.23204v1 📥 PDF

作者: Roberto Pellerito, Nico Messikommer, Giovanni Cioffi, Marco Cannici, Davide Scaramuzza

分类: cs.CV, cs.RO

发布日期: 2026-02-26


💡 一句话要点

提出运动感知事件抑制框架,实时过滤事件相机中由独立运动物体和自运动引起的事件。

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics) 支柱五:交互与反应 (Interaction & Reaction)

关键词: 事件相机 运动感知 事件抑制 独立运动物体 视觉里程计

📋 核心要点

  1. 事件相机数据中,独立运动物体和自运动产生的事件会干扰后续任务,现有方法难以有效区分和抑制。
  2. 提出运动感知事件抑制框架,通过联合分割IMO并预测其未来运动,实现对动态事件的预判抑制。
  3. 实验表明,该方法在分割精度和推理速度上均优于现有方法,并能显著提升下游任务的性能。

📝 摘要(中文)

本文提出首个运动感知事件抑制框架,该框架学习实时过滤由独立运动物体(IMO)和自运动触发的事件。我们的模型联合分割当前事件流中的IMO,同时预测它们的未来运动,从而能够在动态事件发生之前进行预判抑制。我们的轻量级架构在消费级GPU上实现了173 Hz的推理速度,内存使用量小于1 GB,在具有挑战性的EVIMO基准测试中,分割精度比之前的最先进方法高出67%,同时推理速度提高了53%。此外,我们证明了该方法对下游应用的显著益处:我们的方法通过token剪枝将Vision Transformer的推理速度提高了83%,并提高了基于事件的视觉里程计的准确性,将绝对轨迹误差(ATE)降低了13%。

🔬 方法详解

问题定义:事件相机产生的事件流中,由独立运动物体(IMO)和相机自身的运动(自运动)产生的事件会干扰后续的视觉任务,例如视觉里程计、目标识别等。现有的事件滤波方法通常基于简单的阈值或手工设计的规则,无法有效地将这些干扰事件与由场景中的真实变化引起的事件区分开来,导致性能下降。

核心思路:本文的核心思路是利用深度学习方法,同时进行IMO分割和运动预测,从而实现对未来事件的预判抑制。通过预测IMO的运动轨迹,可以提前知道哪些事件是由IMO引起的,从而在事件发生之前就将其过滤掉。这种预判抑制能够更有效地去除干扰事件,提高后续视觉任务的准确性和效率。

技术框架:该框架包含两个主要模块:IMO分割模块和运动预测模块。IMO分割模块负责将当前事件流中的IMO分割出来,可以使用各种图像分割网络,例如U-Net等。运动预测模块则负责预测分割出的IMO在未来一段时间内的运动轨迹,可以使用循环神经网络(RNN)或Transformer等序列模型。这两个模块联合训练,共同优化,从而实现对IMO的准确分割和运动预测。在推理阶段,首先使用IMO分割模块分割出IMO,然后使用运动预测模块预测其未来运动轨迹,最后根据预测的运动轨迹,将由IMO引起的事件过滤掉。

关键创新:最重要的技术创新点在于将IMO分割和运动预测结合起来,实现对未来事件的预判抑制。与传统的事件滤波方法相比,该方法能够更有效地去除干扰事件,提高后续视觉任务的准确性和效率。此外,该框架采用轻量级架构,能够在消费级GPU上实现实时推理,具有很强的实用性。

关键设计:在IMO分割模块中,可以使用U-Net等常用的图像分割网络,并采用交叉熵损失函数进行训练。在运动预测模块中,可以使用LSTM等循环神经网络,并采用均方误差损失函数进行训练。为了实现实时推理,可以对网络进行剪枝和量化等优化。此外,还可以设计专门的损失函数,例如鼓励分割结果与运动预测结果一致的损失函数,从而进一步提高模型的性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

该方法在EVIMO基准测试中,分割精度比之前的最先进方法高出67%,同时推理速度提高了53%,在消费级GPU上实现了173 Hz的推理速度,内存使用量小于1 GB。此外,该方法通过token剪枝将Vision Transformer的推理速度提高了83%,并提高了基于事件的视觉里程计的准确性,将绝对轨迹误差(ATE)降低了13%。

🎯 应用场景

该研究成果可广泛应用于机器人导航、自动驾驶、无人机等领域。通过有效抑制由独立运动物体和自运动引起的事件,可以提高视觉里程计、目标识别等视觉任务的准确性和鲁棒性,从而提升机器人的自主导航能力和环境感知能力。此外,该方法还可以应用于视频监控、运动分析等领域,例如,可以用于检测和跟踪视频中的运动目标,或者用于分析运动员的运动轨迹。

📄 摘要(原文)

In this work, we introduce the first framework for Motion-aware Event Suppression, which learns to filter events triggered by IMOs and ego-motion in real time. Our model jointly segments IMOs in the current event stream while predicting their future motion, enabling anticipatory suppression of dynamic events before they occur. Our lightweight architecture achieves 173 Hz inference on consumer-grade GPUs with less than 1 GB of memory usage, outperforming previous state-of-the-art methods on the challenging EVIMO benchmark by 67\% in segmentation accuracy while operating at a 53\% higher inference rate. Moreover, we demonstrate significant benefits for downstream applications: our method accelerates Vision Transformer inference by 83\% via token pruning and improves event-based visual odometry accuracy, reducing Absolute Trajectory Error (ATE) by 13\%.