Language is Scary when Over-Analyzed: Unpacking Implied Misogynistic Reasoning with Argumentation Theory-Driven Prompts
作者: Arianna Muti, Federico Ruggeri, Khalid Al-Khatib, Alberto Barrón-Cedeño, Tommaso Caselli
分类: cs.CL, cs.SI
发布日期: 2024-09-04
💡 一句话要点
利用论证理论驱动的提示,揭示大型语言模型在分析中隐含的厌女推理
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 厌女情绪检测 论证理论 大型语言模型 提示工程 自然语言处理
📋 核心要点
- 现有方法难以捕捉语言中隐含的厌女情绪,尤其是在推理层面。
- 论文利用论证理论构建提示,引导LLM揭示消息中隐含的厌女推理。
- 实验表明LLM在厌女推理方面表现不足,倾向于依赖刻板印象而非归纳推理。
📝 摘要(中文)
本文将厌女情绪检测定义为一个论证推理任务,并研究大型语言模型(LLMs)理解意大利语和英语中用于传达厌女情绪的隐含推理的能力。研究的核心目标是生成消息和编码厌女情绪的隐含含义之间缺失的推理环节。该研究以论证理论为基础,构建了一系列零样本和少样本设置下的提示。这些提示整合了不同的技术,包括思维链推理和增强知识。研究结果表明,LLMs在关于厌女评论的推理能力方面存在不足,并且它们主要依赖于从内化的关于女性的常见刻板印象中获得的隐含知识来生成隐含假设,而不是依赖于归纳推理。
🔬 方法详解
问题定义:论文旨在解决大型语言模型(LLMs)在理解和识别隐含厌女情绪方面的不足。现有方法往往难以捕捉语言中隐藏的、通过复杂推理过程表达的厌女信息。痛点在于LLMs可能无法识别消息中隐含的假设和推理链,从而导致检测准确率下降。
核心思路:论文的核心思路是将厌女情绪检测视为一个论证推理任务,并利用论证理论来指导LLMs进行推理。通过构建特定的提示,引导LLMs显式地生成消息和隐含含义之间的推理环节,从而揭示隐藏的厌女情绪。这种方法旨在让LLMs不仅仅依赖于表面特征或刻板印象,而是通过深入分析论证结构来理解厌女信息的本质。
技术框架:整体框架包括以下几个主要步骤:1) 定义论证理论框架,确定推理所需的关键要素(例如,前提、结论、假设)。2) 基于论证理论,设计一系列提示,包括零样本和少样本设置。这些提示旨在引导LLMs生成消息和隐含厌女含义之间的推理链。3) 使用不同的技术增强提示,例如思维链推理和外部知识增强。4) 使用LLMs(例如,GPT-3)生成推理链。5) 分析LLMs生成的推理链,评估其是否能够准确地揭示隐含的厌女情绪。
关键创新:论文的关键创新在于将论证理论应用于厌女情绪检测,并利用提示工程来引导LLMs进行推理。与传统的基于关键词或表面特征的方法不同,该方法试图深入理解厌女信息的内在逻辑和推理过程。此外,论文还探索了不同的提示技术,例如思维链推理和知识增强,以提高LLMs的推理能力。
关键设计:论文的关键设计包括:1) 提示的设计:提示需要清晰地引导LLMs生成推理链,并明确指出需要识别的论证要素。2) 论证理论框架的选择:选择合适的论证理论框架对于指导推理过程至关重要。3) 知识增强:利用外部知识库来补充LLMs的知识,提高其推理的准确性。4) 评估指标:设计合适的评估指标来衡量LLMs生成的推理链的质量和准确性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LLMs在厌女推理方面表现不足,即使在使用了论证理论驱动的提示后,仍然倾向于依赖刻板印象而非归纳推理。这表明LLMs在理解复杂社会现象方面仍存在局限性,需要进一步的研究和改进。论文还对比了不同提示技术的效果,为未来的研究提供了有价值的参考。
🎯 应用场景
该研究成果可应用于社交媒体平台的内容审核,自动识别和过滤厌女言论,从而营造更健康的网络环境。此外,该方法还可以用于教育领域,帮助人们更好地理解和识别语言中隐含的偏见和歧视。未来,该研究可以扩展到其他类型的偏见检测,例如种族歧视和性别歧视。
📄 摘要(原文)
We propose misogyny detection as an Argumentative Reasoning task and we investigate the capacity of large language models (LLMs) to understand the implicit reasoning used to convey misogyny in both Italian and English. The central aim is to generate the missing reasoning link between a message and the implied meanings encoding the misogyny. Our study uses argumentation theory as a foundation to form a collection of prompts in both zero-shot and few-shot settings. These prompts integrate different techniques, including chain-of-thought reasoning and augmented knowledge. Our findings show that LLMs fall short on reasoning capabilities about misogynistic comments and that they mostly rely on their implicit knowledge derived from internalized common stereotypes about women to generate implied assumptions, rather than on inductive reasoning.