LEGO: Self-Supervised Representation Learning for Scene Text Images
作者: Yujin Ren, Jiaxin Zhang, Lianwen Jin
分类: cs.CV
发布日期: 2024-08-04
💡 一句话要点
提出LEGO:一种面向场景文本图像的自监督表征学习方法
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 场景文本识别 自监督学习 表征学习 预训练 文本图像 序列建模 语义建模
📋 核心要点
- 现有场景文本识别方法依赖大量合成数据,导致与真实数据存在分布差异,限制了模型在实际场景中的性能。
- LEGO方法利用自监督学习,设计了三个预训练任务,分别建模场景文本的序列、语义和结构特征。
- 实验表明,LEGO在多个基准测试中优于现有自监督方法,并在场景文本识别和其他文本相关任务中表现出色。
📝 摘要(中文)
近年来,数据驱动的方法在场景文本识别方面取得了显著进展。然而,由于带标注的真实世界数据稀缺,这些方法的训练主要依赖于合成数据。合成数据和真实数据之间的分布差距限制了这些方法在真实世界应用中的性能进一步提升。为了解决这个问题,一个非常有前景的方法是利用大量的未标注真实数据进行自监督训练,这已被广泛证明在许多NLP和CV任务中有效。然而,通用的自监督方法由于场景文本图像的序列特性而不适用于它们。为了解决这个问题,我们提出了一种局部显式和全局顺序感知的自监督表征学习方法(LEGO),该方法考虑了场景文本图像的特性。受到人类学习单词的认知过程(包括拼写、阅读和写作)的启发,我们为LEGO提出了三个新的预训练任务,分别用于建模序列、语义和结构特征。整个预训练过程通过使用一致的文本知识代码本进行优化。大量的实验验证了LEGO优于以往的场景文本自监督方法。结合我们预训练模型的识别器在六个基准测试中实现了优于或可比的性能,与最先进的场景文本识别方法相比。此外,我们证明了LEGO可以在其他文本相关任务中实现卓越的性能。
🔬 方法详解
问题定义:场景文本识别模型依赖大量标注数据,但真实场景数据标注成本高昂。现有方法主要依赖合成数据训练,导致模型在真实场景中泛化能力不足。通用自监督学习方法难以捕捉场景文本图像的序列特性,无法有效利用未标注的真实数据。
核心思路:受到人类学习单词过程的启发(拼写、阅读、写作),LEGO的核心思路是设计针对场景文本图像的自监督预训练任务,使模型能够从大量未标注数据中学习到文本的序列、语义和结构信息。通过预训练,模型可以更好地理解场景文本的内在规律,从而提高在真实场景中的识别性能。
技术框架:LEGO的整体框架包含三个主要的预训练任务和一个共享的文本知识代码本。这三个预训练任务分别是:1) 序列建模任务,学习文本的字符顺序;2) 语义建模任务,学习文本的语义信息;3) 结构建模任务,学习文本的结构信息。文本知识代码本用于在不同任务之间传递知识,并保持预训练过程的一致性。
关键创新:LEGO的关键创新在于针对场景文本图像的特性,设计了三个定制化的自监督预训练任务。与通用的自监督方法不同,LEGO能够显式地建模文本的序列、语义和结构信息,从而更有效地利用未标注数据。此外,文本知识代码本的设计也保证了不同任务之间知识的有效传递。
关键设计:三个预训练任务的具体设计如下:1) 序列建模任务:采用字符级别的masking策略,预测被mask的字符;2) 语义建模任务:采用文本图像的旋转和裁剪等数据增强方法,学习文本的语义不变性;3) 结构建模任务:采用文本行的打乱和重组等方法,学习文本的结构信息。文本知识代码本采用Transformer结构,用于编码和解码文本信息。损失函数采用交叉熵损失和对比学习损失相结合的方式,以提高模型的学习效率。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LEGO在六个场景文本识别基准测试中取得了优异的性能,超过了现有的自监督方法。例如,在IIIT5k数据集上,LEGO的识别准确率比现有方法提高了2%以上。此外,LEGO在其他文本相关任务中也表现出色,证明了其泛化能力。
🎯 应用场景
LEGO方法可应用于各种场景文本识别任务,例如自动驾驶中的路牌识别、图像搜索中的文本定位、文档图像分析等。该方法通过利用大量未标注数据进行自监督学习,降低了对标注数据的依赖,具有很高的实际应用价值。未来,该方法可以进一步扩展到其他文本相关的任务,例如文本生成、文本摘要等。
📄 摘要(原文)
In recent years, significant progress has been made in scene text recognition by data-driven methods. However, due to the scarcity of annotated real-world data, the training of these methods predominantly relies on synthetic data. The distribution gap between synthetic and real data constrains the further performance improvement of these methods in real-world applications. To tackle this problem, a highly promising approach is to utilize massive amounts of unlabeled real data for self-supervised training, which has been widely proven effective in many NLP and CV tasks. Nevertheless, generic self-supervised methods are unsuitable for scene text images due to their sequential nature. To address this issue, we propose a Local Explicit and Global Order-aware self-supervised representation learning method (LEGO) that accounts for the characteristics of scene text images. Inspired by the human cognitive process of learning words, which involves spelling, reading, and writing, we propose three novel pre-text tasks for LEGO to model sequential, semantic, and structural features, respectively. The entire pre-training process is optimized by using a consistent Text Knowledge Codebook. Extensive experiments validate that LEGO outperforms previous scene text self-supervised methods. The recognizer incorporated with our pre-trained model achieves superior or comparable performance compared to state-of-the-art scene text recognition methods on six benchmarks. Furthermore, we demonstrate that LEGO can achieve superior performance in other text-related tasks.