A Multi-Year Urban Streetlight Imagery Dataset for Visual Monitoring and Spatio-Temporal Drift Detection
作者: Peizheng Li, Ioannis Mavromatis, Ajith Sahadevan, Tim Farnham, Adnan Aijaz, Aftab Khan
分类: cs.CV
发布日期: 2025-12-13
备注: 10 pages, 7 figures. Submitted to Data in Brief (Elsevier)
💡 一句话要点
发布城市街道照明多年度图像数据集,用于视觉监控和时空漂移检测。
🎯 匹配领域: 支柱三:空间感知 (Perception & SLAM)
关键词: 城市视觉监控 视觉漂移检测 自监督学习 卷积变分自编码器 大规模数据集 时空数据分析
📋 核心要点
- 现有智能城市视觉监控系统缺乏长期稳定性和适应性,难以应对光照、天气等变化引起的视觉漂移。
- 提出基于卷积变分自编码器的自监督框架,通过学习图像的潜在表示来检测视觉漂移和异常。
- 构建包含超过52万张街道照明图像的大规模数据集,为长期视觉监控和漂移检测提供基准。
📝 摘要(中文)
本文介绍了一个大规模的、纵向的城市街道照明视觉数据集,该数据集由部署在英国布里斯托尔的22个固定角度摄像头于2021年至2025年间捕获。该数据集包含超过526,000张图像,这些图像在不同的光照、天气和季节条件下每小时收集一次。每张图像都附带有丰富的元数据,包括时间戳、GPS坐标和设备标识符。这个独特的真实世界数据集能够对智能城市部署中的视觉漂移、异常检测和MLOps策略进行详细研究。为了促进二次分析,我们还提供了一个基于卷积变分自编码器(CNN-VAE)的自监督框架。模型针对每个摄像头节点以及白天/夜晚图像集分别进行训练。我们定义了两个per-sample漂移指标:相对质心漂移,捕捉潜在空间与基线四分之一的偏差;相对重建误差,测量归一化的图像域退化。该数据集为评估长期模型稳定性、漂移感知学习和可部署的视觉系统提供了一个真实的、细粒度的基准。图像和结构化元数据以JPEG和CSV格式公开发布,支持可重复性和下游应用,如街道照明监控、天气推断和城市场景理解。
🔬 方法详解
问题定义:现有城市视觉监控系统在长期部署中面临视觉漂移问题,即模型性能随时间推移而下降,这是由于光照、天气、季节等因素变化导致的。缺乏足够规模和时间跨度的真实数据集来研究和解决这一问题。
核心思路:利用自监督学习方法,通过卷积变分自编码器(CNN-VAE)学习图像的潜在表示,并基于潜在空间的漂移和图像重建误差来检测视觉漂移。核心在于假设正常状态下的图像具有稳定的潜在表示和较低的重建误差,而漂移会导致潜在表示的偏移和重建误差的增加。
技术框架:整体框架包括数据采集、预处理、模型训练和漂移检测四个阶段。首先,通过固定角度摄像头采集城市街道照明图像,并附带元数据。然后,使用CNN-VAE对图像进行编码和解码,学习图像的潜在表示。最后,基于相对质心漂移和相对重建误差两个指标来检测视觉漂移。模型针对每个摄像头节点以及白天/夜晚图像集分别进行训练。
关键创新:主要创新在于构建了一个大规模、多年度的城市街道照明图像数据集,并提出了基于自监督学习的视觉漂移检测方法。该方法无需人工标注,能够自动学习图像的潜在表示,并检测潜在空间的漂移和图像重建质量的下降。
关键设计:CNN-VAE的网络结构采用卷积层进行特征提取,全连接层进行潜在变量的编码和解码。损失函数包括重建损失和KL散度损失,用于约束潜在变量的分布。相对质心漂移定义为当前样本潜在表示与基线四分之一样本潜在表示质心的距离。相对重建误差定义为当前样本重建误差与所有样本重建误差均值的比值。
📊 实验亮点
论文构建了一个包含超过52万张图像的城市街道照明数据集,时间跨度长达四年。通过自监督学习方法,实现了对视觉漂移的有效检测。实验结果表明,该方法能够准确地检测出由于光照、天气等因素引起的视觉漂移,为长期视觉监控系统的稳定运行提供了保障。
🎯 应用场景
该研究成果可应用于智慧城市建设中的长期视觉监控系统,例如街道照明监控、交通流量分析、环境监测等。通过检测视觉漂移,可以及时发现系统故障或环境变化,提高系统的可靠性和智能化水平。此外,该数据集也可用于训练和评估各种视觉算法,促进城市场景理解和计算机视觉领域的发展。
📄 摘要(原文)
We present a large-scale, longitudinal visual dataset of urban streetlights captured by 22 fixed-angle cameras deployed across Bristol, U.K., from 2021 to 2025. The dataset contains over 526,000 images, collected hourly under diverse lighting, weather, and seasonal conditions. Each image is accompanied by rich metadata, including timestamps, GPS coordinates, and device identifiers. This unique real-world dataset enables detailed investigation of visual drift, anomaly detection, and MLOps strategies in smart city deployments. To promtoe seconardary analysis, we additionally provide a self-supervised framework based on convolutional variational autoencoders (CNN-VAEs). Models are trained separately for each camera node and for day/night image sets. We define two per-sample drift metrics: relative centroid drift, capturing latent space deviation from a baseline quarter, and relative reconstruction error, measuring normalized image-domain degradation. This dataset provides a realistic, fine-grained benchmark for evaluating long-term model stability, drift-aware learning, and deployment-ready vision systems. The images and structured metadata are publicly released in JPEG and CSV formats, supporting reproducibility and downstream applications such as streetlight monitoring, weather inference, and urban scene understanding. The dataset can be found at https://doi.org/10.5281/zenodo.17781192 and https://doi.org/10.5281/zenodo.17859120.