QNeRF: Neural Radiance Fields on a Simulated Gate-Based Quantum Computer
作者: Daniele Lizzio Bosco, Shuteng Wang, Giuseppe Serra, Vladislav Golyanik
分类: cs.CV
发布日期: 2026-01-08
备注: 30 pages, 15 figures, 11 tables; project page: https://4dqv.mpi-inf.mpg.de/QNeRF/
💡 一句话要点
提出QNeRF,一种基于量子计算机的新视角合成方法,在参数量更少的情况下匹配或超越经典NeRF。
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱三:空间感知与语义 (Perception & Semantics)
关键词: 神经辐射场 量子计算 新视角合成 量子机器学习 三维重建
📋 核心要点
- 神经辐射场(NeRF)在新视角合成中表现出色,但模型较大且训练密集,存在模型大小和训练效率的挑战。
- QNeRF利用量子计算的叠加和纠缠特性,通过参数化量子电路编码空间和视角信息,旨在实现更紧凑的模型。
- 实验表明,QNeRF在参数量更少的情况下,能够达到或超过经典NeRF的性能,验证了量子机器学习在3D表征学习中的潜力。
📝 摘要(中文)
本文提出QNeRF,一种用于新视角合成的混合量子-经典模型,扩展了量子视觉场(QVFs)的方法。QNeRF利用参数化的量子电路,通过量子叠加和纠缠来编码空间和视角相关的信息,从而实现比经典模型更紧凑的模型。论文提出了两种架构变体:Full QNeRF最大化利用所有量子幅度来增强表征能力;Dual-Branch QNeRF通过分支空间和视角相关的量子态制备引入了任务相关的归纳偏置,显著降低了操作的复杂度,并确保了可扩展性和潜在的硬件兼容性。实验结果表明,在适中分辨率的图像上训练时,QNeRF在参数量不到经典NeRF一半的情况下,能够匹配甚至超越经典NeRF基线。这些结果表明,量子机器学习可以作为计算机视觉中级任务(如基于2D观测的3D表征学习)中连续信号表征的一种有竞争力的替代方案。
🔬 方法详解
问题定义:NeRF虽然能实现高质量的新视角合成,但其模型参数量大,训练计算成本高昂。因此,如何降低NeRF的模型大小和计算复杂度,同时保持其性能,是一个重要的研究问题。
核心思路:QNeRF的核心思路是利用量子计算的优势,特别是量子叠加和量子纠缠,来更有效地编码场景的空间和视角信息。通过将NeRF中的部分或全部网络替换为参数化的量子电路,期望能够以更少的参数实现与经典NeRF相当甚至更好的性能。
技术框架:QNeRF包含两种架构变体:Full QNeRF和Dual-Branch QNeRF。Full QNeRF将空间和视角信息都编码到单个量子电路中,最大化利用量子幅度进行表征。Dual-Branch QNeRF则将空间和视角信息的编码分离到两个独立的量子电路分支中,降低了单个量子电路的复杂度,提高了可扩展性。整体流程包括:输入2D图像,通过量子电路编码空间和视角信息,然后解码得到颜色和密度,最后通过体渲染生成新视角图像。
关键创新:QNeRF的关键创新在于将量子计算引入到NeRF框架中,利用量子电路的特性来提高模型的表征效率。与经典NeRF相比,QNeRF使用量子电路来编码场景信息,从而可以用更少的参数实现更好的性能。Dual-Branch QNeRF的设计进一步降低了量子电路的复杂度,使其更易于在实际量子硬件上实现。
关键设计:QNeRF的关键设计包括量子电路的结构、参数化方法以及损失函数。论文中使用了参数化的量子电路,例如变分量子电路(VQC),来编码空间和视角信息。损失函数通常采用NeRF中使用的光度损失,即渲染图像与真实图像之间的差异。具体的量子电路结构和参数化方法会影响模型的性能,需要根据具体任务进行调整。
📊 实验亮点
实验结果表明,QNeRF在适中分辨率的图像上训练时,能够匹配甚至超越经典NeRF基线的性能,同时使用的参数量不到经典NeRF的一半。这表明QNeRF在模型压缩方面具有显著优势,并且量子机器学习在3D表征学习中具有竞争力。
🎯 应用场景
QNeRF的潜在应用领域包括:低资源设备上的3D场景重建、移动端的增强现实应用、以及需要高效模型表示的机器人视觉。该研究的实际价值在于降低了NeRF模型的计算和存储成本,使其更容易部署在资源受限的平台上。未来,QNeRF有望推动量子计算在计算机视觉领域的应用,并为开发更高效、更紧凑的3D视觉模型提供新的思路。
📄 摘要(原文)
Recently, Quantum Visual Fields (QVFs) have shown promising improvements in model compactness and convergence speed for learning the provided 2D or 3D signals. Meanwhile, novel-view synthesis has seen major advances with Neural Radiance Fields (NeRFs), where models learn a compact representation from 2D images to render 3D scenes, albeit at the cost of larger models and intensive training. In this work, we extend the approach of QVFs by introducing QNeRF, the first hybrid quantum-classical model designed for novel-view synthesis from 2D images. QNeRF leverages parameterised quantum circuits to encode spatial and view-dependent information via quantum superposition and entanglement, resulting in more compact models compared to the classical counterpart. We present two architectural variants. Full QNeRF maximally exploits all quantum amplitudes to enhance representational capabilities. In contrast, Dual-Branch QNeRF introduces a task-informed inductive bias by branching spatial and view-dependent quantum state preparations, drastically reducing the complexity of this operation and ensuring scalability and potential hardware compatibility. Our experiments demonstrate that -- when trained on images of moderate resolution -- QNeRF matches or outperforms classical NeRF baselines while using less than half the number of parameters. These results suggest that quantum machine learning can serve as a competitive alternative for continuous signal representation in mid-level tasks in computer vision, such as 3D representation learning from 2D observations.