Group Diffusion Transformers are Unsupervised Multitask Learners

📄 arXiv: 2410.15027v1 📥 PDF

作者: Lianghua Huang, Wei Wang, Zhi-Fan Wu, Huanzhang Dou, Yupeng Shi, Yutong Feng, Chen Liang, Yu Liu, Jingren Zhou

分类: cs.CV

发布日期: 2024-10-19


💡 一句话要点

提出Group Diffusion Transformers (GDTs),用于无监督多任务视觉生成,解决现有方法依赖特定数据集的问题。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 视觉生成 扩散模型 Transformer 无监督学习 多任务学习 图像组生成 零样本学习

📋 核心要点

  1. 现有视觉生成任务依赖于有监督的、特定任务的数据集,缺乏通用性和灵活性。
  2. GDTs将视觉生成任务统一为组生成问题,通过diffusion transformers隐式捕获图像间的关系。
  3. GDTs在30个视觉生成任务上实现了有竞争力的零样本性能,验证了其有效性和通用性。

📝 摘要(中文)

本文提出Group Diffusion Transformers (GDTs),一种新颖的框架,通过将各种视觉生成任务重新定义为组生成问题,从而统一了这些任务。在该方法中,一组相关的图像被同时生成,可以选择性地以该组的一个子集为条件。GDTs在diffusion transformers的基础上构建,通过跨图像连接自注意力tokens,以最小的架构修改隐式地捕获跨图像关系(例如,身份、风格、布局、环境和配色方案)。这种设计使得能够使用来自多模态互联网文章、图像画廊和视频帧的大量图像组集合进行可扩展的、无监督的和任务无关的预训练。我们在一个全面的基准上评估GDTs,该基准包含跨30个不同视觉生成任务的200多条指令,包括图画书创作、字体设计、风格迁移、素描、着色、绘画序列生成和角色定制。我们的模型在没有任何额外的微调或梯度更新的情况下实现了有竞争力的零样本性能。此外,消融研究证实了关键组件(如数据缩放、组大小和模型设计)的有效性。这些结果证明了GDTs作为可扩展的、通用视觉生成系统的潜力。

🔬 方法详解

问题定义:现有的视觉生成方法通常需要针对特定任务进行训练,依赖于大量的有监督数据集。这导致模型泛化能力差,难以适应新的视觉生成任务。此外,这些方法难以捕捉图像之间的关联性,例如风格迁移、图画书创作等需要考虑多张图片之间关系的任务。

核心思路:GDTs的核心思路是将多个相关的视觉生成任务统一建模为一个组生成问题。通过同时生成一组相关的图像,模型可以学习到图像之间的内在联系,从而实现无监督的多任务学习。这种方法避免了对特定任务的依赖,提高了模型的泛化能力。

技术框架:GDTs基于Diffusion Transformers构建,主要包括以下几个模块:1)图像组构建模块,用于从多模态数据源(如互联网文章、图像画廊等)中提取相关的图像组;2)Diffusion Transformer模块,用于对图像组进行扩散和逆扩散过程,从而生成新的图像组;3)条件控制模块,允许用户指定图像组中的一部分图像作为条件,从而控制生成过程。整个框架采用无监督的预训练方式,无需人工标注数据。

关键创新:GDTs的关键创新在于将视觉生成任务重新定义为组生成问题,并利用Diffusion Transformers来建模图像组之间的关系。通过跨图像连接自注意力tokens,模型可以隐式地学习到图像之间的身份、风格、布局等信息。这种方法避免了对特定任务的依赖,提高了模型的泛化能力和可扩展性。

关键设计:GDTs的关键设计包括:1)数据缩放策略,用于处理不同大小的图像组;2)组大小的选择,需要根据任务的复杂程度进行调整;3)自注意力机制的改进,通过跨图像连接tokens来增强模型对图像间关系的建模能力;4)损失函数的设计,采用基于扩散模型的损失函数,鼓励模型生成高质量的图像组。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

GDTs在超过30个视觉生成任务上进行了评估,包括图画书创作、字体设计、风格迁移等。实验结果表明,GDTs在没有任何额外微调或梯度更新的情况下,实现了具有竞争力的零样本性能。消融研究验证了数据缩放、组大小和模型设计等关键组件的有效性。例如,在风格迁移任务上,GDTs生成的图像在风格相似度和内容保持度方面均优于现有方法。

🎯 应用场景

GDTs具有广泛的应用前景,例如图画书创作、字体设计、风格迁移、角色定制等。它可以应用于内容创作、艺术设计、游戏开发等领域,降低视觉内容生成的门槛,提高创作效率。未来,GDTs有望成为一种通用的视觉生成系统,为各行各业提供强大的视觉内容生成能力。

📄 摘要(原文)

While large language models (LLMs) have revolutionized natural language processing with their task-agnostic capabilities, visual generation tasks such as image translation, style transfer, and character customization still rely heavily on supervised, task-specific datasets. In this work, we introduce Group Diffusion Transformers (GDTs), a novel framework that unifies diverse visual generation tasks by redefining them as a group generation problem. In this approach, a set of related images is generated simultaneously, optionally conditioned on a subset of the group. GDTs build upon diffusion transformers with minimal architectural modifications by concatenating self-attention tokens across images. This allows the model to implicitly capture cross-image relationships (e.g., identities, styles, layouts, surroundings, and color schemes) through caption-based correlations. Our design enables scalable, unsupervised, and task-agnostic pretraining using extensive collections of image groups sourced from multimodal internet articles, image galleries, and video frames. We evaluate GDTs on a comprehensive benchmark featuring over 200 instructions across 30 distinct visual generation tasks, including picture book creation, font design, style transfer, sketching, colorization, drawing sequence generation, and character customization. Our models achieve competitive zero-shot performance without any additional fine-tuning or gradient updates. Furthermore, ablation studies confirm the effectiveness of key components such as data scaling, group size, and model design. These results demonstrate the potential of GDTs as scalable, general-purpose visual generation systems.