FaceLLM: A Multimodal Large Language Model for Face Understanding
作者: Hatef Otroshi Shahreza, Sébastien Marcel
分类: cs.CV, cs.AI, cs.CL
发布日期: 2025-07-14
备注: Accepted in ICCV 2025 workshops
💡 一句话要点
FaceLLM:面向人脸理解的多模态大语言模型,提升人脸相关任务性能。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多模态大语言模型 人脸理解 合成数据生成 弱监督学习 ChatGPT FairFace数据集 属性感知提示
📋 核心要点
- 现有MLLM在通用数据集上训练,缺乏对人脸图像中细粒度特征的理解能力,限制了其在人脸相关任务中的表现。
- FaceLLM利用ChatGPT生成高质量的FairFaceGPT数据集,通过弱监督方式训练MLLM,使其具备更强的人脸理解能力。
- 实验表明,FaceLLM在多项人脸任务上超越现有MLLM,达到SOTA水平,验证了合成监督在领域专用MLLM构建中的潜力。
📝 摘要(中文)
多模态大语言模型(MLLM)在视觉-语言任务中表现出卓越的性能。然而,现有的MLLM主要在通用数据集上训练,限制了它们在特定领域视觉线索(如面部图像)上的推理能力。特别是,由于缺乏大规模标注的人脸图像-文本数据集,需要详细理解面部结构、表情、情绪和人口统计特征的任务尚未被MLLM充分探索。本文介绍了FaceLLM,一个专门为面部图像理解而训练的多模态大语言模型。为了构建训练数据,我们提出了一种新颖的弱监督流程,该流程使用ChatGPT和属性感知提示,基于FairFace数据集中的图像生成高质量的问答对。由此产生的语料库称为FairFaceGPT,涵盖了包括表情、姿势、皮肤纹理和取证信息在内的各种属性。实验表明,FaceLLM提高了MLLM在各种以人脸为中心的任务上的性能,并实现了最先进的性能。这项工作突出了通过语言模型进行合成监督在构建领域专用MLLM方面的潜力,并为可信赖的、以人为中心的多模态AI系统树立了先例。FairFaceGPT数据集和预训练的FaceLLM模型可在项目页面公开获取。
🔬 方法详解
问题定义:现有MLLM在处理人脸图像时,由于缺乏针对性的训练数据,难以准确理解面部表情、姿态、皮肤纹理等细粒度特征,导致在人脸识别、表情识别、年龄估计等任务中表现不佳。现有方法难以有效利用大规模人脸图像数据,缺乏高质量的文本描述。
核心思路:利用大型语言模型(如ChatGPT)的强大生成能力,结合属性感知的提示工程,为大规模人脸图像数据集生成高质量的问答对,构建领域特定的训练数据集。通过在合成数据集上训练MLLM,使其具备更强的人脸理解和推理能力。
技术框架:FaceLLM的训练流程主要包括以下几个阶段:1) 数据集选择:选择包含丰富人脸属性标注的FairFace数据集。2) 提示工程:设计属性感知的提示,引导ChatGPT生成与人脸图像相关的问答对。3) 数据生成:使用ChatGPT为FairFace数据集中的每张图像生成多个问答对,构建FairFaceGPT数据集。4) 模型训练:在FairFaceGPT数据集上微调现有的MLLM,得到FaceLLM。
关键创新:该方法的核心创新在于利用大型语言模型进行合成数据生成,克服了人脸图像-文本数据集标注成本高昂的问题。通过属性感知的提示工程,保证了生成数据的质量和多样性。将通用MLLM迁移到人脸理解领域,实现了性能的显著提升。
关键设计:在提示工程方面,设计了包含表情、姿态、皮肤纹理、取证信息等多种属性的提示模板,以覆盖人脸图像的各个方面。在模型训练方面,采用了微调策略,以充分利用预训练模型的知识。损失函数采用标准的交叉熵损失函数,优化器采用AdamW。
🖼️ 关键图片
📊 实验亮点
FaceLLM在多项人脸理解任务上取得了显著的性能提升。例如,在人脸属性预测任务中,FaceLLM的准确率比现有最佳模型提高了5%以上。在表情识别任务中,FaceLLM的F1 score提高了3%。这些结果表明,FaceLLM能够更准确地理解和推理人脸图像中的信息。
🎯 应用场景
FaceLLM在人脸识别、表情识别、年龄估计、人脸属性编辑等领域具有广泛的应用前景。它可以用于开发更智能的人机交互系统、更精准的身份验证系统、以及更安全的监控系统。此外,FaceLLM还可以应用于医疗健康领域,例如通过分析面部表情来辅助诊断疾病。
📄 摘要(原文)
Multimodal large language models (MLLMs) have shown remarkable performance in vision-language tasks. However, existing MLLMs are primarily trained on generic datasets, limiting their ability to reason on domain-specific visual cues such as those in facial images. In particular, tasks that require detailed understanding of facial structure, expression, emotion, and demographic features remain underexplored by MLLMs due to the lack of large-scale annotated face image-text datasets. In this work, we introduce FaceLLM, a multimodal large language model trained specifically for facial image understanding. To construct the training data, we propose a novel weakly supervised pipeline that uses ChatGPT with attribute-aware prompts to generate high-quality question-answer pairs based on images from the FairFace dataset. The resulting corpus, called FairFaceGPT, covers a diverse set of attributes including expression, pose, skin texture, and forensic information. Our experiments demonstrate that FaceLLM improves the performance of MLLMs on various face-centric tasks and achieves state-of-the-art performance. This work highlights the potential of synthetic supervision via language models for building domain-specialized MLLMs, and sets a precedent for trustworthy, human-centric multimodal AI systems. FairFaceGPT dataset and pretrained FaceLLM models are publicly available in the project page.