Monitoring Horses in Stalls: From Object to Event Detection

📄 arXiv: 2510.17409v1 📥 PDF

作者: Dmitrii Galimzianov, Viacheslav Vyshegorodtsev, Ivan Nezhivykh

分类: cs.CV

发布日期: 2025-10-20

备注: 12 pages, 4 figures, 4 tables


💡 一句话要点

提出基于YOLOv11和BoT-SORT的马厩马匹行为监测系统,实现事件自动检测。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 马匹监测 行为识别 目标检测 多目标跟踪 YOLOv11 BoT-SORT 智慧畜牧业 动物福利

📋 核心要点

  1. 人工监测马厩中马匹的行为既耗时又费力,难以实现对马匹健康和福利问题的早期预警。
  2. 该研究提出一种基于视觉的监测系统,利用YOLOv11和BoT-SORT技术,通过分析物体轨迹和空间关系来推断事件状态。
  3. 系统在自定义数据集上进行了评估,结果表明该系统能够可靠地检测与马匹相关的事件,为实时行为监测奠定基础。

📝 摘要(中文)

本研究提出了一种基于视觉的马厩马匹行为监测原型系统,旨在自动检测和跟踪马厩内的马匹和人员,从而及早发现健康和福利问题。该系统利用YOLOv11进行目标检测,BoT-SORT进行多目标跟踪,并通过物体轨迹和马厩内的空间关系推断事件状态。为了支持开发,我们构建了一个自定义数据集,并借助基础模型CLIP和GroundingDINO进行标注。该系统能够区分五种事件类型,并考虑了摄像头的盲区。定性评估表明,该系统在马匹相关事件的检测方面表现可靠,但由于数据稀缺,人员检测方面存在局限性。这项工作为马科动物设施中的实时行为监测奠定了基础,对动物福利和马厩管理具有重要意义。

🔬 方法详解

问题定义:该论文旨在解决马厩环境中人工监测马匹行为效率低、成本高的问题。现有方法依赖人工观察,容易出现疏漏,且难以实现长时间、连续的监测。因此,需要一种自动化的、基于视觉的监测系统,能够实时检测和跟踪马匹的行为,并识别潜在的健康和福利问题。

核心思路:论文的核心思路是利用计算机视觉技术,特别是目标检测和多目标跟踪技术,自动识别和跟踪马厩中的马匹和人员。通过分析这些目标的运动轨迹和空间关系,推断出马匹的行为事件。这种方法可以减少人工干预,提高监测效率,并实现对马匹行为的实时监控。

技术框架:该系统的整体框架包括以下几个主要模块:1) 数据集构建:使用CLIP和GroundingDINO辅助标注,构建包含马匹和人员的自定义数据集。2) 目标检测:使用YOLOv11模型检测图像中的马匹和人员。3) 多目标跟踪:使用BoT-SORT算法跟踪检测到的目标,生成目标的运动轨迹。4) 事件推断:根据目标的运动轨迹和空间关系,推断出马匹的行为事件,例如站立、躺卧、进食等。

关键创新:该论文的关键创新在于将目标检测和多目标跟踪技术应用于马厩环境中的马匹行为监测。通过结合YOLOv11和BoT-SORT,实现了对马匹和人员的准确检测和跟踪。此外,该系统还考虑了摄像头的盲区,提高了监测的可靠性。利用CLIP和GroundingDINO辅助数据标注也提高了效率。

关键设计:在目标检测方面,选择了YOLOv11作为检测器,因为它具有较高的检测精度和速度。在多目标跟踪方面,选择了BoT-SORT算法,因为它在处理遮挡和身份切换方面表现良好。事件推断模块则根据马匹的运动轨迹和空间关系,定义了一系列规则,用于判断马匹的行为事件。具体参数设置和损失函数等细节未在论文中详细描述,属于未知信息。

📊 实验亮点

该系统在自定义数据集上进行了定性评估,结果表明该系统能够可靠地检测与马匹相关的事件。虽然由于数据稀缺,人员检测方面存在局限性,但马匹相关事件的检测性能良好,验证了该方法在马厩环境中的可行性。具体的性能指标(例如精度、召回率等)未在论文中给出,属于未知信息。

🎯 应用场景

该研究成果可应用于智慧畜牧业,实现对马匹等动物的实时行为监测和健康预警。通过及早发现异常行为,可以及时采取干预措施,提高动物福利,降低疾病风险,并优化马厩管理。此外,该技术还可扩展到其他动物的监测,具有广阔的应用前景。

📄 摘要(原文)

Monitoring the behavior of stalled horses is essential for early detection of health and welfare issues but remains labor-intensive and time-consuming. In this study, we present a prototype vision-based monitoring system that automates the detection and tracking of horses and people inside stables using object detection and multi-object tracking techniques. The system leverages YOLOv11 and BoT-SORT for detection and tracking, while event states are inferred based on object trajectories and spatial relations within the stall. To support development, we constructed a custom dataset annotated with assistance from foundation models CLIP and GroundingDINO. The system distinguishes between five event types and accounts for the camera's blind spots. Qualitative evaluation demonstrated reliable performance for horse-related events, while highlighting limitations in detecting people due to data scarcity. This work provides a foundation for real-time behavioral monitoring in equine facilities, with implications for animal welfare and stable management.