Asynchronous Multi-Object Tracking with an Event Camera

📄 arXiv: 2505.08126v1 📥 PDF

作者: Angus Apps, Ziwei Wang, Vladimir Perejogin, Timothy Molloy, Robert Mahony

分类: cs.CV

发布日期: 2025-05-12

备注: 7 pages, 5 figures, published in IEEE International Conference on Robotics and Automation (ICRA), 2025

DOI: 10.1109/ICRA55743.2025.11127984


💡 一句话要点

提出异步事件多目标跟踪算法以解决动态环境中的目标检测问题

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: 事件相机 多目标跟踪 动态环境 异步处理 机器学习 目标检测 机器人技术

📋 核心要点

  1. 现有的目标检测和跟踪方法在动态环境中表现不佳,尤其是在处理快速移动物体时,常常面临延迟和精度不足的问题。
  2. 本文提出的AEMOT算法通过异步处理事件,利用活动流方向场来检测和跟踪多个目标,显著提高了动态环境中的跟踪性能。
  3. 在新的蜜蜂群数据集上,AEMOT的精度和召回率超过了其他事件基础的检测和跟踪算法,提升幅度超过37%。

📝 摘要(中文)

事件相机因其低延迟输出、高时间分辨率和高动态范围,成为机器人在高度动态环境中检测和跟踪目标的理想传感器。本文提出了异步事件多目标跟踪(AEMOT)算法,通过异步处理单个原始事件来检测和跟踪多个目标。AEMOT通过构建基于活动事件表面的活动流方向场,识别一致光流区域来检测显著的事件斑点特征。使用新提出的异步事件斑点(AEB)跟踪器跟踪检测到的特征,构建每个候选目标的小强度补丁。一个新学习的验证阶段根据强度补丁的分类来提升或丢弃候选目标,提升的目标在其事件速率下估计位置、速度、大小和方向。我们在新的蜜蜂群数据集上评估AEMOT,其精度和召回率超过其他基于事件的检测和跟踪算法37%以上。源代码和标记的事件蜜蜂群数据集将开源。

🔬 方法详解

问题定义:本文旨在解决在高度动态环境中多目标检测和跟踪的挑战,现有方法在处理快速移动物体时常常面临延迟和精度不足的问题。

核心思路:AEMOT算法通过异步处理每个原始事件,利用活动流方向场来检测显著的事件斑点特征,从而实现高效的目标跟踪。

技术框架:AEMOT的整体架构包括事件检测、候选目标跟踪和验证三个主要模块。首先,算法通过活动流方向场识别事件斑点特征,然后使用AEB跟踪器跟踪这些特征,最后通过学习的验证阶段对候选目标进行分类和筛选。

关键创新:AEMOT的主要创新在于异步处理事件和使用活动流方向场进行目标检测,这与传统的同步处理方法有本质区别,显著提高了动态环境中的跟踪精度。

关键设计:算法在参数设置上采用了优化的事件速率估计,损失函数设计为结合目标检测和跟踪的多任务损失,网络结构则基于现有的深度学习框架进行了改进,以适应事件数据的特性。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

在实验中,AEMOT在新的蜜蜂群数据集上表现出色,其精度和召回率超过了其他基于事件的检测和跟踪算法,提升幅度超过37%。这一结果表明,AEMOT在动态环境中的有效性和优越性。

🎯 应用场景

该研究具有广泛的应用潜力,特别是在机器人导航、无人机监控和自动驾驶等领域。通过提高动态环境中目标跟踪的精度,AEMOT可以为实时决策提供更可靠的信息,推动相关技术的发展和应用。

📄 摘要(原文)

Events cameras are ideal sensors for enabling robots to detect and track objects in highly dynamic environments due to their low latency output, high temporal resolution, and high dynamic range. In this paper, we present the Asynchronous Event Multi-Object Tracking (AEMOT) algorithm for detecting and tracking multiple objects by processing individual raw events asynchronously. AEMOT detects salient event blob features by identifying regions of consistent optical flow using a novel Field of Active Flow Directions built from the Surface of Active Events. Detected features are tracked as candidate objects using the recently proposed Asynchronous Event Blob (AEB) tracker in order to construct small intensity patches of each candidate object. A novel learnt validation stage promotes or discards candidate objects based on classification of their intensity patches, with promoted objects having their position, velocity, size, and orientation estimated at their event rate. We evaluate AEMOT on a new Bee Swarm Dataset, where it tracks dozens of small bees with precision and recall performance exceeding that of alternative event-based detection and tracking algorithms by over 37%. Source code and the labelled event Bee Swarm Dataset will be open sourced