Zero-Shot Stance Detection in the Wild: Dynamic Target Generation and Multi-Target Adaptation
作者: Aohua Li, Yuanshuo Zhang, Ge Gao, Bo Chen, Xiaobing Zhao
分类: cs.CL
发布日期: 2026-01-27
💡 一句话要点
提出DGTA框架,解决现实场景下零样本立场检测中动态目标生成与多目标适应问题
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 零样本学习 立场检测 动态目标生成 多目标适应 大型语言模型 社交媒体分析 自然语言处理
📋 核心要点
- 现有立场检测方法依赖预定义目标,无法应对社交媒体中目标动态变化的挑战。
- 提出DGTA框架,通过动态目标生成和多目标适应,实现零样本立场检测。
- 实验表明,微调后的LLMs在DGTA任务上表现优异,显著提升了目标识别和立场检测性能。
📝 摘要(中文)
当前立场检测研究通常依赖于给定目标和文本来预测立场。然而,在真实的社交媒体场景中,目标既非预定义也非静态,而是复杂且动态的。为了应对这一挑战,本文提出了一项新任务:基于动态目标生成和多目标适应的零样本立场检测(DGTA),旨在无需先验目标知识,自动从文本中识别多个目标-立场对。我们构建了一个中文社交媒体立场检测数据集,并设计了多维度评估指标。我们探索了大型语言模型(LLMs)的集成和两阶段微调策略,并评估了各种基线模型。实验结果表明,微调后的LLMs在此任务上表现出色:两阶段微调的Qwen2.5-7B获得了最高的综合目标识别得分66.99%,而集成微调的DeepSeek-R1-Distill-Qwen-7B获得了79.26%的立场检测F1得分。
🔬 方法详解
问题定义:论文旨在解决现实社交媒体场景下,零样本立场检测中目标动态生成和多目标适应的问题。现有方法依赖于预定义的目标,无法处理社交媒体中目标不断涌现和变化的情况,限制了其在实际应用中的效果。
核心思路:论文的核心思路是利用大型语言模型(LLMs)的强大生成能力,首先从文本中动态生成目标,然后针对每个目标进行立场检测。通过多目标适应策略,使模型能够同时处理多个目标,从而更准确地捕捉文本中的立场信息。
技术框架:DGTA框架包含两个主要阶段:动态目标生成阶段和多目标立场检测阶段。在动态目标生成阶段,利用LLM从输入文本中提取潜在的目标。在多目标立场检测阶段,将文本和生成的目标作为输入,利用LLM预测针对每个目标的立场。论文探索了集成微调和两阶段微调两种策略来优化LLM。
关键创新:该论文的关键创新在于提出了DGTA框架,将目标生成和立场检测整合到一个统一的框架中,实现了零样本条件下的立场检测。与现有方法相比,DGTA无需预定义目标,能够更好地适应现实社交媒体场景中目标动态变化的特点。
关键设计:论文设计了多维度的评估指标,包括目标识别的准确率、召回率和F1值,以及立场检测的F1值。在微调LLM时,采用了交叉熵损失函数来优化目标生成和立场检测任务。论文探索了不同的LLM架构,如Qwen和DeepSeek,并比较了集成微调和两阶段微调策略的效果。
🖼️ 关键图片
📊 实验亮点
实验结果表明,经过微调的LLMs在DGTA任务上取得了显著的性能提升。两阶段微调的Qwen2.5-7B模型在目标识别方面取得了最高的综合得分66.99%,而集成微调的DeepSeek-R1-Distill-Qwen-7B模型在立场检测方面取得了最高的F1得分79.26%。这些结果表明,LLMs在处理动态目标和多目标立场检测方面具有巨大的潜力。
🎯 应用场景
该研究成果可应用于舆情监控、虚假信息检测、社会事件分析等领域。通过自动识别社交媒体文本中的目标和立场,可以帮助政府、企业和个人更好地了解社会舆论,及时发现和应对潜在的风险,并为决策提供支持。未来,该技术还可以扩展到其他语言和领域,具有广阔的应用前景。
📄 摘要(原文)
Current stance detection research typically relies on predicting stance based on given targets and text. However, in real-world social media scenarios, targets are neither predefined nor static but rather complex and dynamic. To address this challenge, we propose a novel task: zero-shot stance detection in the wild with Dynamic Target Generation and Multi-Target Adaptation (DGTA), which aims to automatically identify multiple target-stance pairs from text without prior target knowledge. We construct a Chinese social media stance detection dataset and design multi-dimensional evaluation metrics. We explore both integrated and two-stage fine-tuning strategies for large language models (LLMs) and evaluate various baseline models. Experimental results demonstrate that fine-tuned LLMs achieve superior performance on this task: the two-stage fine-tuned Qwen2.5-7B attains the highest comprehensive target recognition score of 66.99%, while the integrated fine-tuned DeepSeek-R1-Distill-Qwen-7B achieves a stance detection F1 score of 79.26%.