Beyond Binary Classification: Detecting Fine-Grained Sexism in Social Media Videos

📄 arXiv: 2602.15757v1 📥 PDF

作者: Laura De Grazia, Danae Sánchez Villegas, Desmond Elliott, Mireia Farrús, Mariona Taulé

分类: cs.CL, cs.AI

发布日期: 2026-02-17


💡 一句话要点

提出FineMuSe数据集,用于社交媒体视频中细粒度性别歧视检测,并评估大型语言模型性能。

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 性别歧视检测 多模态学习 社交媒体分析 大型语言模型 细粒度分类

📋 核心要点

  1. 现有性别歧视检测工具主要依赖二元分类,无法有效识别社交媒体中微妙和多样的性别歧视形式。
  2. 论文构建了FineMuSe数据集,并设计了包含性别歧视、非性别歧视和修辞手法的分层分类体系,提供细粒度标注。
  3. 实验评估了多种大型语言模型在FineMuSe数据集上的性能,揭示了模型在处理视觉线索和共现性别歧视类型方面的局限性。

📝 摘要(中文)

在线性别歧视呈现多种形式,这使得检测具有挑战性。虽然自动化工具可以增强性别歧视内容的识别,但它们通常仅限于二元分类。因此,由于缺乏细粒度的、上下文敏感的标签,更微妙的性别歧视表现可能仍然未被检测到。为了解决这个问题,我们做出了以下贡献:(1)我们提出了FineMuSe,这是一个新的西班牙语多模态性别歧视检测数据集,包括二元和细粒度注释;(2)我们引入了一个全面的分层分类法,包括性别歧视、非性别歧视以及讽刺和幽默的修辞手法;(3)我们评估了各种大型语言模型在二元和细粒度性别歧视检测中的性能。我们的研究结果表明,多模态大型语言模型在识别细微的性别歧视形式方面与人类注释者相比具有竞争力;然而,当这些性别歧视类型通过视觉线索传达时,它们难以捕捉到同时出现的性别歧视类型。

🔬 方法详解

问题定义:论文旨在解决社交媒体视频中细粒度性别歧视检测问题。现有方法主要集中于二元分类,无法捕捉到性别歧视的多种形式和细微差别,导致许多潜在的性别歧视内容被忽略。此外,缺乏带有细粒度标注的数据集也限制了相关研究的进展。

核心思路:论文的核心思路是通过构建一个包含细粒度标注的多模态数据集(FineMuSe),并设计一个全面的分层分类体系,来提升模型对性别歧视的理解和检测能力。同时,利用大型语言模型(LLMs)强大的语义理解能力,结合视觉信息,实现更准确的性别歧视检测。

技术框架:整体框架包括数据收集与标注、分类体系构建和模型评估三个主要阶段。首先,收集西班牙语社交媒体视频数据,并进行二元和细粒度标注。然后,构建一个包含性别歧视、非性别歧视和修辞手法的分层分类体系。最后,使用多种大型语言模型(包括多模态模型)在FineMuSe数据集上进行评估,并分析其性能。

关键创新:论文的关键创新在于构建了FineMuSe数据集和分层分类体系,为细粒度性别歧视检测提供了新的资源和标准。此外,论文还探索了大型语言模型在多模态性别歧视检测中的应用,并揭示了模型在处理视觉线索和共现性别歧视类型方面的局限性。

关键设计:FineMuSe数据集包含视频、文本和音频等多模态信息,标注包括二元标签(性别歧视/非性别歧视)和细粒度标签(具体性别歧视类型)。分层分类体系包含多个层级,从宏观到微观地描述性别歧视的不同方面。模型评估采用标准的分类指标,如准确率、精确率、召回率和F1值。论文没有具体说明损失函数和网络结构等细节,但提到使用了多种LLMs。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,多模态大型语言模型在识别细微的性别歧视形式方面表现出竞争力,与人类标注者相当。然而,当性别歧视信息通过视觉线索传递时,模型在捕捉共现的性别歧视类型方面存在困难。具体性能数据和基线对比在论文中未明确给出。

🎯 应用场景

该研究成果可应用于社交媒体平台的内容审核,自动识别和过滤性别歧视内容,营造更健康的网络环境。此外,该数据集和分类体系可作为研究基准,促进相关算法的开发和改进,并为教育和公众意识提升提供数据支持。

📄 摘要(原文)

Online sexism appears in various forms, which makes its detection challenging. Although automated tools can enhance the identification of sexist content, they are often restricted to binary classification. Consequently, more subtle manifestations of sexism may remain undetected due to the lack of fine-grained, context-sensitive labels. To address this issue, we make the following contributions: (1) we present FineMuSe, a new multimodal sexism detection dataset in Spanish that includes both binary and fine-grained annotations; (2) we introduce a comprehensive hierarchical taxonomy that encompasses forms of sexism, non-sexism, and rhetorical devices of irony and humor; and (3) we evaluate a wide range of LLMs for both binary and fine-grained sexism detection. Our findings indicate that multimodal LLMs perform competitively with human annotators in identifying nuanced forms of sexism; however, they struggle to capture co-occurring sexist types when these are conveyed through visual cues.