Tailor: An Integrated Text-Driven CG-Ready Human and Garment Generation System
作者: Zhiyao Sun, Yu-Hui Wen, Matthieu Lin, Ho-Jui Fang, Sheng Ye, Tian Lv, Yong-Jin Liu
分类: cs.CV, cs.GR
发布日期: 2025-03-15 (更新: 2025-03-18)
备注: Project page: https://human-tailor.github.io
💡 一句话要点
Tailor:提出一个集成的文本驱动的、可生成CG就绪人体和服装的系统
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 文本到3D 服装生成 人体建模 拓扑保持变形 纹理扩散 大型语言模型 生成式AI
📋 核心要点
- 现有文本到3D服装化身生成方法缺乏易用性和集成性,难以直接生成可用的服装化身。
- Tailor系统利用大型语言模型、拓扑保持变形和增强纹理扩散等技术,实现高保真、可定制的3D人体和服装生成。
- 实验结果表明,Tailor在保真度、可用性和多样性方面均优于现有最先进的方法。
📝 摘要(中文)
创建具有服装的精细3D人体化身通常需要专业的知识和密集的人工流程。尽管生成式AI的最新进展已经实现了文本到3D人体/服装的生成,但当前的方法在提供可访问的、集成的流程以生成可直接使用的服装化身方面存在不足。为了解决这个问题,我们提出了Tailor,一个集成的文本到化身系统,可以生成具有仿真就绪服装的高保真、可定制的3D人体。我们的系统包括一个三阶段的流程。我们首先使用大型语言模型将文本描述解释为参数化的身体形状和语义匹配的服装模板。接下来,我们开发了具有新颖几何损失的拓扑保持变形,以使服装精确地适应身体几何形状。此外,具有对称局部注意力机制的增强纹理扩散模块可确保视图一致性和逼真的细节。定量和定性评估表明,Tailor在保真度、可用性和多样性方面优于现有的SoTA方法。代码将可用于学术用途。
🔬 方法详解
问题定义:论文旨在解决从文本描述直接生成高质量、可定制的3D服装化身的问题。现有方法通常需要专业知识和大量人工干预,或者生成的化身质量不高,难以直接用于计算机图形学应用。现有方法的痛点在于缺乏一个集成的、易于使用的流程,能够从文本描述生成具有逼真细节和可用于仿真的服装化身。
核心思路:论文的核心思路是将文本描述转化为参数化的身体形状和服装模板,然后通过拓扑保持变形将服装精确地适配到身体几何形状上,最后使用增强的纹理扩散模块生成逼真的纹理细节。这种方法的核心在于利用大型语言模型的语义理解能力,以及几何变形和纹理生成技术的优势,从而实现高质量的服装化身生成。
技术框架:Tailor系统包含三个主要阶段:1) 文本解析与模板生成:使用大型语言模型将文本描述解析为参数化的身体形状和语义匹配的服装模板。2) 拓扑保持变形:开发具有新颖几何损失的拓扑保持变形算法,将服装精确地适配到身体几何形状上。3) 纹理扩散:使用具有对称局部注意力机制的增强纹理扩散模块,生成具有视图一致性和逼真细节的纹理。
关键创新:该论文的关键创新在于以下几个方面:1) 提出了一个集成的文本到化身生成系统,将文本解析、几何变形和纹理生成整合到一个流程中。2) 开发了具有新颖几何损失的拓扑保持变形算法,能够精确地将服装适配到身体几何形状上。3) 提出了具有对称局部注意力机制的增强纹理扩散模块,能够生成具有视图一致性和逼真细节的纹理。与现有方法相比,Tailor系统能够生成更高质量、更易于使用的服装化身。
关键设计:在拓扑保持变形阶段,论文设计了新的几何损失函数,以确保变形后的服装保持其原始拓扑结构。在纹理扩散阶段,论文使用了对称局部注意力机制,以确保生成的纹理在不同视角下保持一致性。具体的参数设置和网络结构细节在论文中进行了详细描述,但未在摘要中体现。
🖼️ 关键图片
📊 实验亮点
Tailor系统在保真度、可用性和多样性方面均优于现有最先进的方法。具体而言,该系统能够生成具有逼真细节和可用于仿真的服装化身,并且用户可以通过简单的文本描述来定制化身。定量和定性评估结果表明,Tailor系统在多个指标上均取得了显著提升,但具体性能数据未在摘要中体现。
🎯 应用场景
该研究成果可广泛应用于游戏开发、虚拟现实、电子商务等领域。例如,游戏开发者可以使用该系统快速生成各种服装化身,从而节省大量建模时间。在虚拟现实中,用户可以使用该系统创建自己的个性化化身。在电子商务中,消费者可以使用该系统试穿各种服装,从而提高购物体验。未来,该技术有望进一步发展,实现更加逼真和可定制的服装化身生成。
📄 摘要(原文)
Creating detailed 3D human avatars with garments typically requires specialized expertise and labor-intensive processes. Although recent advances in generative AI have enabled text-to-3D human/clothing generation, current methods fall short in offering accessible, integrated pipelines for producing ready-to-use clothed avatars. To solve this, we introduce Tailor, an integrated text-to-avatar system that generates high-fidelity, customizable 3D humans with simulation-ready garments. Our system includes a three-stage pipeline. We first employ a large language model to interpret textual descriptions into parameterized body shapes and semantically matched garment templates. Next, we develop topology-preserving deformation with novel geometric losses to adapt garments precisely to body geometries. Furthermore, an enhanced texture diffusion module with a symmetric local attention mechanism ensures both view consistency and photorealistic details. Quantitative and qualitative evaluations demonstrate that Tailor outperforms existing SoTA methods in terms of fidelity, usability, and diversity. Code will be available for academic use.