Audio-Visual World Models: Towards Multisensory Imagination in Sight and Sound
作者: Jiahua Wang, Shannan Yan, Leqi Zheng, Jialong Wu, Yaoxin Mao
分类: cs.MM, cs.CV, cs.SD
发布日期: 2025-11-30
💡 一句话要点
提出AVWM框架,利用视听信息进行环境建模,提升智能体导航性能
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱三:空间感知 (Perception & SLAM)
关键词: 音频-视觉世界模型 多模态学习 环境建模 机器人导航 扩散模型 Transformer 双耳音频
📋 核心要点
- 现有世界模型主要依赖视觉信息,忽略了音频提供的空间和时间线索,限制了智能体在复杂环境中的感知能力。
- 提出音频-视觉世界模型(AVWM),结合双耳空间音频和视觉信息,模拟环境动态,提升智能体对环境的理解和预测能力。
- 构建了AVW-4k数据集,并提出了AV-CDiT模型,实验证明该模型在多模态预测和音频-视觉导航任务中表现出色。
📝 摘要(中文)
本文提出了音频-视觉世界模型(AVWM),旨在模拟环境动态,使智能体能够规划和推理未来状态。现有方法主要集中于视觉观察,而现实世界感知涉及多种感官模态。音频提供关键的空间和时间线索,如声源定位和声学场景属性,但其与世界模型的集成仍未被充分探索。本文首次正式定义了音频-视觉世界模型,并将其形式化为具有同步视听观察、精细动作和任务奖励的部分可观察马尔可夫决策过程。为了解决缺乏合适训练数据的问题,构建了AVW-4k数据集,包含76个室内环境中30小时的双耳音频-视觉轨迹,带有动作注释和奖励信号。提出了AV-CDiT,一种音频-视觉条件扩散Transformer,具有新颖的模态专家架构,平衡视觉和听觉学习,并通过三阶段训练策略进行优化,以实现有效的多模态集成。实验表明,AV-CDiT实现了跨视觉和听觉模态的高保真多模态预测,并具有奖励预测能力。此外,验证了其在连续音频-视觉导航任务中的实用性,AVWM显著提高了智能体的性能。
🔬 方法详解
问题定义:现有世界模型主要依赖视觉信息,忽略了音频信息提供的空间和时间信息,例如声源定位和场景声学特性。这限制了智能体在复杂环境中的感知和推理能力。因此,需要一种能够同时处理视觉和听觉信息,并预测未来状态的音频-视觉世界模型。
核心思路:论文的核心思路是将环境建模为一个部分可观察马尔可夫决策过程(POMDP),其中状态由同步的音频和视觉观察组成,动作是智能体的控制指令,奖励是任务完成的反馈。通过学习一个能够预测未来状态(包括视觉和听觉信息)的模型,智能体可以更好地规划和执行动作。
技术框架:整体框架包含以下几个主要模块:1) 数据集AVW-4k,用于训练和评估模型;2) 音频-视觉条件扩散Transformer (AV-CDiT),用于学习环境动态;3) 三阶段训练策略,用于优化AV-CDiT模型;4) 音频-视觉导航任务,用于评估AVWM的实际应用效果。
关键创新:论文的关键创新在于:1) 首次正式定义了音频-视觉世界模型(AVWM);2) 构建了AVW-4k数据集,为AVWM的研究提供了数据基础;3) 提出了AV-CDiT模型,该模型具有新颖的模态专家架构,能够有效地平衡视觉和听觉学习;4) 提出了三阶段训练策略,提高了AV-CDiT模型的训练效率和预测精度。
关键设计:AV-CDiT模型采用Transformer架构,并引入了模态专家模块,分别处理视觉和听觉信息。视觉专家和听觉专家分别学习视觉和听觉特征,并通过交叉注意力机制进行融合。三阶段训练策略包括:1) 预训练视觉和听觉专家;2) 联合训练视觉和听觉专家;3) 微调整个模型。损失函数包括视觉重建损失、听觉重建损失和奖励预测损失。
📊 实验亮点
实验结果表明,AV-CDiT模型在AVW-4k数据集上实现了高保真的多模态预测,包括视觉和听觉模态。在音频-视觉导航任务中,AVWM显著提高了智能体的性能,相比于仅使用视觉信息的模型,导航成功率提升了约15%。
🎯 应用场景
该研究成果可应用于机器人导航、虚拟现实、游戏等领域。例如,在机器人导航中,AVWM可以帮助机器人在复杂环境中更好地感知和理解周围环境,从而实现更安全、更高效的导航。在虚拟现实和游戏中,AVWM可以生成更逼真的视听体验,增强用户的沉浸感。
📄 摘要(原文)
World models simulate environmental dynamics to enable agents to plan and reason about future states. While existing approaches have primarily focused on visual observations, real-world perception inherently involves multiple sensory modalities. Audio provides crucial spatial and temporal cues such as sound source localization and acoustic scene properties, yet its integration into world models remains largely unexplored. No prior work has formally defined what constitutes an audio-visual world model or how to jointly capture binaural spatial audio and visual dynamics under precise action control with task reward prediction. This work presents the first formal framework for Audio-Visual World Models (AVWM), formulating multimodal environment simulation as a partially observable Markov decision process with synchronized audio-visual observations, fine-grained actions, and task rewards. To address the lack of suitable training data, we construct AVW-4k, a dataset comprising 30 hours of binaural audio-visual trajectories with action annotations and reward signals across 76 indoor environments. We propose AV-CDiT, an Audio-Visual Conditional Diffusion Transformer with a novel modality expert architecture that balances visual and auditory learning, optimized through a three-stage training strategy for effective multimodal integration. Extensive experiments demonstrate that AV-CDiT achieves high-fidelity multimodal prediction across visual and auditory modalities with reward. Furthermore, we validate its practical utility in continuous audio-visual navigation tasks, where AVWM significantly enhances the agent's performance.