$\text{F}^2\text{HDR}$: Two-Stage HDR Video Reconstruction via Flow Adapter and Physical Motion Modeling

📄 arXiv: 2603.14920v1 📥 PDF

作者: Huanjing Yue, Dawei Li, Shaoxiong Tu, Jingyu Yang

分类: cs.CV

发布日期: 2026-03-16

备注: Accepted by CVPR 2026


💡 一句话要点

提出F²HDR,通过光流适配和物理运动建模实现高质量HDR视频重建

🎯 匹配领域: 支柱三:空间感知与语义 (Perception & Semantics)

关键词: HDR视频重建 光流估计 运动建模 图像对齐 深度学习

📋 核心要点

  1. 现有HDR视频重建方法在动态场景下,由于帧间对齐不准确,导致重影和细节丢失,重建质量下降。
  2. F²HDR框架通过光流适配器实现鲁棒对齐,利用物理运动建模识别运动区域,并使用运动感知网络进行细化。
  3. 实验结果表明,F²HDR在真实HDR视频数据集上达到了SOTA性能,有效抑制了重影,提升了重建质量。

📝 摘要(中文)

本文提出了一种名为F²HDR的两阶段HDR视频重建框架,旨在解决动态场景下交替曝光低动态范围(LDR)图像序列重建HDR视频的难题。动态场景中,跨曝光不一致性和复杂运动使得帧间对齐变得困难,导致重影和细节丢失。现有方法通常存在对齐不准确、特征聚合次优以及运动主导区域重建质量下降等问题。F²HDR集成了光流适配器,用于鲁棒的跨曝光对齐;物理运动建模,用于识别显著运动区域;以及运动感知细化网络,用于聚合互补信息并消除重影和噪声。大量实验表明,F²HDR在真实HDR视频基准测试中实现了最先进的性能,在大运动和曝光变化下产生了无重影和高保真的结果。

🔬 方法详解

问题定义:论文旨在解决从交替曝光的LDR视频序列中重建高质量HDR视频的问题,尤其是在动态场景下。现有方法在处理跨曝光不一致性和复杂运动时,帧间对齐精度不足,导致重影伪影和细节损失,限制了重建质量。

核心思路:论文的核心思路是通过更精确的运动估计和运动区域感知,来改善帧间对齐和特征融合。具体来说,利用光流适配器增强光流估计的鲁棒性,并结合物理运动建模来显式地识别和处理运动区域,从而减少重影和噪声。

技术框架:F²HDR是一个两阶段的框架。第一阶段,使用光流适配器进行跨曝光图像的对齐,并利用物理运动建模来估计运动区域。第二阶段,使用一个运动感知的细化网络,该网络利用对齐后的图像和运动信息,进行特征聚合和HDR重建。

关键创新:该方法的主要创新在于:1) 提出了光流适配器,能够适应不同曝光条件下的光流估计,提高对齐精度;2) 引入了物理运动建模,显式地建模场景中的运动,从而更好地处理运动区域的伪影;3) 设计了运动感知的细化网络,能够根据运动信息自适应地调整特征聚合方式,从而提高重建质量。

关键设计:光流适配器可能采用了对抗训练或域适应的方法,使得光流网络能够更好地处理不同曝光下的图像。物理运动建模可能基于光流场的变化率或图像梯度等信息来估计运动区域。运动感知的细化网络可能使用了注意力机制或可变形卷积等技术,以便根据运动信息自适应地调整感受野和特征权重。损失函数可能包括L1损失、感知损失和对抗损失等,以保证重建结果的保真度和视觉质量。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,F²HDR在真实HDR视频基准测试中取得了state-of-the-art的性能。相较于现有方法,F²HDR能够显著减少重影伪影,并恢复更丰富的细节信息。具体性能提升数据未知,但论文强调了其在处理大运动和曝光变化方面的优势。

🎯 应用场景

该研究成果可应用于视频监控、自动驾驶、电影制作等领域。在视频监控中,可以提高低照度或高动态范围场景下的视频质量。在自动驾驶中,可以增强车辆对复杂光照环境的感知能力。在电影制作中,可以实现更高质量的HDR视频内容。

📄 摘要(原文)

Reconstructing High Dynamic Range (HDR) videos from sequences of alternating-exposure Low Dynamic Range (LDR) frames remains highly challenging, especially under dynamic scenes where cross-exposure inconsistencies and complex motion make inter-frame alignment difficult, leading to ghosting and detail loss. Existing methods often suffer from inaccurate alignment, suboptimal feature aggregation, and degraded reconstruction quality in motion-dominated regions. To address these challenges, we propose $\text{F}^2\text{HDR}$, a two-stage HDR video reconstruction framework that robustly perceives inter-frame motion and restores fine details in complex dynamic scenarios. The proposed framework integrates a flow adapter that adapts generic optical flow for robust cross-exposure alignment, a physical motion modeling to identify salient motion regions, and a motion-aware refinement network that aggregates complementary information while removing ghosting and noise. Extensive experiments demonstrate that $\text{F}^2\text{HDR}$ achieves state-of-the-art performance on real-world HDR video benchmarks, producing ghost-free and high-fidelity results under large motion and exposure variations.