An Interpretable Benchmark for Clickbait Detection and Tactic Attribution
作者: Lihi Nofar, Tomer Portal, Aviv Elbaz, Alexander Apartsin, Yehudit Aperstein
分类: cs.CL
发布日期: 2025-09-13
备注: 7 pages
🔗 代码/项目: GITHUB
💡 一句话要点
提出一种可解释的点击诱饵检测与策略归因基准方法,提升信息可信度。
🎯 匹配领域: 支柱一:机器人控制 (Robot Control) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 点击诱饵检测 可解释性AI 自然语言处理 大型语言模型 策略归因
📋 核心要点
- 现有点击诱饵检测方法缺乏可解释性,难以实际应用,用户难以理解判断依据。
- 提出一种两阶段框架,首先检测点击诱饵,然后将检测结果归因于特定的语言操纵策略。
- 构建合成数据集,通过系统性地扩充真实新闻标题,实现受控实验和模型行为分析。
📝 摘要(中文)
点击诱饵标题的泛滥对信息的可靠性和用户对数字媒体的信任构成了重大挑战。虽然机器学习的最新进展提高了对操纵性内容的检测能力,但缺乏可解释性限制了它们的实际应用。本文提出了一种可解释的点击诱饵检测模型,该模型不仅可以识别点击诱饵标题,还可以将其归因于特定的语言操纵策略。我们引入了一个合成数据集,该数据集通过使用预定义的点击诱饵策略目录系统地扩充真实新闻标题而生成。该数据集支持受控实验和模型行为的详细分析。我们提出了一个用于自动点击诱饵分析的两阶段框架,包括检测和策略归因。在第一阶段,我们将微调的BERT分类器与大型语言模型(LLM),特别是GPT-4.0和Gemini 2.4 Flash,在零样本提示和少样本提示下进行比较,后者通过说明性的点击诱饵标题及其相关的说服策略进行丰富。在第二阶段,一个专用的基于BERT的分类器预测每个标题中存在的特定点击诱饵策略。这项工作推进了透明和值得信赖的AI系统的开发,以打击操纵性媒体内容。我们在https://github.com/LLM-HITCS25S/ClickbaitTacticsDetection与研究社区分享该数据集。
🔬 方法详解
问题定义:论文旨在解决点击诱饵检测的可解释性问题。现有方法虽然能检测点击诱饵,但无法解释其判断依据,用户难以信任。此外,缺乏标准数据集阻碍了模型性能的系统性评估和比较。
核心思路:论文的核心思路是构建一个可解释的点击诱饵检测框架,不仅能识别点击诱饵,还能将其归因于特定的语言操纵策略。通过提供解释,增强用户信任,并促进对点击诱饵行为的理解。
技术框架:该框架包含两个阶段:1) 点击诱饵检测:使用微调的BERT分类器或大型语言模型(GPT-4.0, Gemini 2.4 Flash)进行零样本或少样本提示学习。2) 策略归因:使用专用的基于BERT的分类器预测标题中存在的特定点击诱饵策略。
关键创新:主要创新点在于构建了一个合成数据集,该数据集通过系统地扩充真实新闻标题,并使用预定义的点击诱饵策略目录进行标注。这使得能够进行受控实验,并详细分析模型行为。此外,该框架提供了一种可解释的点击诱饵检测方法,能够将检测结果归因于具体的语言操纵策略。
关键设计:在第一阶段,使用了微调的BERT模型以及大型语言模型,并尝试了零样本和少样本提示学习。少样本学习使用了包含点击诱饵标题及其对应策略的示例。在第二阶段,使用BERT模型进行策略分类,具体参数设置和损失函数等细节未在摘要中明确说明,属于未知信息。
📊 实验亮点
论文构建了一个合成数据集,并在此基础上评估了BERT和大型语言模型在点击诱饵检测和策略归因任务上的性能。实验结果表明,通过少样本提示学习,大型语言模型能够有效地检测点击诱饵,并且BERT模型能够准确地预测点击诱饵策略。具体的性能数据和提升幅度在摘要中未明确说明,属于未知信息。
🎯 应用场景
该研究成果可应用于新闻推荐系统、社交媒体平台和内容审核工具,帮助用户识别和过滤点击诱饵内容,提升信息质量和用户体验。通过揭示点击诱饵的策略,可以提高公众对操纵性信息的警惕性,促进更负责任的媒体生态。
📄 摘要(原文)
The proliferation of clickbait headlines poses significant challenges to the credibility of information and user trust in digital media. While recent advances in machine learning have improved the detection of manipulative content, the lack of explainability limits their practical adoption. This paper presents a model for explainable clickbait detection that not only identifies clickbait titles but also attributes them to specific linguistic manipulation strategies. We introduce a synthetic dataset generated by systematically augmenting real news headlines using a predefined catalogue of clickbait strategies. This dataset enables controlled experimentation and detailed analysis of model behaviour. We present a two-stage framework for automatic clickbait analysis comprising detection and tactic attribution. In the first stage, we compare a fine-tuned BERT classifier with large language models (LLMs), specifically GPT-4.0 and Gemini 2.4 Flash, under both zero-shot prompting and few-shot prompting enriched with illustrative clickbait headlines and their associated persuasive tactics. In the second stage, a dedicated BERT-based classifier predicts the specific clickbait strategies present in each headline. This work advances the development of transparent and trustworthy AI systems for combating manipulative media content. We share the dataset with the research community at https://github.com/LLM-HITCS25S/ClickbaitTacticsDetection