Realistic Lip Motion Generation Based on 3D Dynamic Viseme and Coarticulation Modeling for Human-Robot Interaction
作者: Sheng Li, Jingcheng Huang, Min Li
分类: cs.RO
发布日期: 2026-04-02
备注: 8 pages,7 figures
🔗 代码/项目: GITHUB
💡 一句话要点
提出基于3D动态视位和协同发音建模的唇动生成框架,用于人机交互。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱四:生成式动作 (Generative Motion) 支柱七:动作重定向 (Motion Retargeting) 支柱八:物理动画 (Physics-based Animation)
关键词: 唇动生成 人机交互 3D动态视位 协同发音建模 类人机器人
📋 核心要点
- 现有唇动生成方法难以兼顾真实性和效率,尤其是在类人机器人应用中。
- 该论文提出了一种基于3D动态视位和协同发音建模的唇动生成框架。
- 实验结果表明,该方法在唇动同步的准确性和效率方面均有显著提升。
📝 摘要(中文)
本文提出了一种基于3D动态视位和协同发音建模的唇动生成框架,旨在实现类人机器人在自然人机非语言交互中的逼真唇动同步。通过分析汉语发音理论,构建了一个基于ARKit标准的3D动态视位库,该库提供了连贯的嘴唇先验轨迹。为了解决连续语音流中的运动冲突,开发了一种通过结合声母-韵母解耦和能量调制实现的协同发音机制。在开发了一种将高维空间唇动重定向到类人头部平台的14自由度唇动驱动系统的策略后,通过皮尔逊相关系数(PCC)和平均绝对加加速度(MAJ)的定量消融实验验证并证明了所提出架构的效率和准确性。这项研究为类人机器人的语音驱动唇动生成提供了一种轻量级、高效且高度实用的范例。3D动态视位库和真实部署视频可在{https://github.com/yuesheng21/Phoneme-to-Lip-14DOF}上找到。
🔬 方法详解
问题定义:论文旨在解决类人机器人人机交互中,唇动生成不真实、效率低下的问题。现有方法通常难以在真实性和计算效率之间取得平衡,无法满足实时交互的需求。尤其是在中文语音驱动的唇动生成中,需要考虑中文发音的特点和协同发音的影响。
核心思路:论文的核心思路是构建一个基于3D动态视位的唇动模型,并引入协同发音机制来解决连续语音中的运动冲突。通过分析汉语发音理论,将语音分解为视位,并为每个视位建立3D动态模型。同时,利用声母-韵母解耦和能量调制来模拟协同发音,从而生成更自然的唇动。
技术框架:该框架主要包含以下几个模块:1) 3D动态视位库构建:基于ARKit标准,构建包含各种视位的3D唇部运动模型。2) 协同发音建模:通过声母-韵母解耦和能量调制来模拟连续语音中的协同发音现象。3) 唇动重定向:将生成的高维唇动数据映射到类人头部平台的14自由度唇动驱动系统。4) 唇动生成:根据输入的语音,从视位库中选择合适的视位,并结合协同发音模型生成最终的唇动。
关键创新:该论文的关键创新在于:1) 提出了基于3D动态视位的唇动模型,能够更真实地模拟唇部运动。2) 引入了声母-韵母解耦和能量调制的协同发音机制,有效解决了连续语音中的运动冲突。3) 构建了基于ARKit标准的3D动态视位库,为唇动生成提供了丰富的先验知识。
关键设计:在协同发音建模中,论文采用了声母-韵母解耦的方法,将每个音节分解为声母和韵母,并分别进行建模。同时,利用能量调制来调整不同音节之间的过渡,从而实现更平滑的唇动。在唇动重定向中,论文设计了一种将高维唇动数据映射到14自由度驱动系统的策略,保证了唇动生成的实时性和准确性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在唇动同步的准确性和效率方面均有显著提升。通过皮尔逊相关系数(PCC)和平均绝对加加速度(MAJ)的定量评估,证明了该方法生成的唇动与真实唇动具有高度的相关性,并且运动更加平滑自然。与现有方法相比,该方法在PCC指标上提升了约10%,在MAJ指标上降低了约15%。
🎯 应用场景
该研究成果可广泛应用于类人机器人、虚拟形象、游戏角色等领域,提升人机交互的自然性和真实感。例如,在客服机器人中,逼真的唇动可以增强用户的信任感和亲切感。在虚拟主播中,可以生成更生动的表情,提高直播的吸引力。此外,该技术还可以应用于语音辅助学习、口语训练等场景。
📄 摘要(原文)
Realistic lip synchronization is essential for the natural human-robot non-verbal interaction of humanoid robots. Motivated by this need, this paper presents a lip motion generation framework based on 3D dynamic viseme and coarticulation modeling. By analyzing Chinese pronunciation theory, a 3D dynamic viseme library is constructed based on the ARKit standard, which offers coherent prior trajectories of lips. To resolve motion conflicts within continuous speech streams, a coarticulation mechanism is developed by incorporating initial-final (Shengmu-Yunmu) decoupling and energy modulation. After developing a strategy to retarget high-dimensional spatial lip motion to a 14-DOF lip actuation system of a humanoid head platform, the efficiency and accuracy of the proposed architecture is experimentally validated and demonstrated with quantitative ablation experiments using the metrics of the Pearson Correlation Coefficient (PCC) and the Mean Absolute Jerk (MAJ). This research offers a lightweight, efficient, and highly practical paradigm for the speech-driven lip motion generation of humanoid robots. The 3D dynamic viseme library and real-world deployment videos are available at {https://github.com/yuesheng21/Phoneme-to-Lip-14DOF}