Multi-label Sequential Sentence Classification via Large Language Model
作者: Mengfei Lan, Lecheng Zheng, Shufan Ming, Halil Kilicoglu
分类: cs.CL
发布日期: 2024-11-23 (更新: 2024-11-29)
备注: Accepted by EMNLP 2024 Findings
🔗 代码/项目: GITHUB
💡 一句话要点
提出LLM-SSC框架以解决科学出版物中的多标签顺序句子分类问题
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 顺序句子分类 多标签分类 大型语言模型 对比学习 生物医学数据集
📋 核心要点
- 现有的顺序句子分类方法在模型规模和序列长度上存在限制,且通常只支持单标签分类,影响了其应用效果。
- 本文提出LLM-SSC框架,利用大型语言模型生成标签,通过设计的提示增强任务理解,支持多标签分类。
- 实验结果显示,LLM-SSC在顺序句子分类任务中表现优异,尤其是在上下文学习和任务特定调优设置下,性能显著提升。
📝 摘要(中文)
顺序句子分类(SSC)在科学出版物中对于支持细粒度信息检索和提取式摘要等下游任务至关重要。然而,现有的SSC方法受到模型规模、序列长度和单标签设置的限制。为了解决这些问题,本文提出了基于大型语言模型(LLM)的框架LLM-SSC,支持单标签和多标签的SSC任务。与以往采用小型或中型语言模型的方法不同,LLM-SSC通过设计的提示生成SSC标签,增强了任务理解。我们还提出了一种具有自适应加权机制的多标签对比学习损失,以支持多标签分类任务。此外,本文引入并发布了新的数据集biorc800,主要包含生物医学领域的非结构化摘要及人工标注。实验表明,LLM-SSC在上下文学习和任务特定调优设置下均表现出色。
🔬 方法详解
问题定义:本文旨在解决科学出版物中的顺序句子分类(SSC)问题,现有方法在模型规模、序列长度和单标签设置上存在局限,导致分类效果不佳。
核心思路:提出LLM-SSC框架,利用大型语言模型(LLM)生成分类标签,通过设计的提示增强对任务的理解,支持单标签和多标签分类。
技术框架:LLM-SSC框架包括数据预处理、提示设计、标签生成和多标签对比学习损失等模块,整体流程为输入文本经过提示生成标签,随后进行分类任务。
关键创新:最重要的创新在于引入大型语言模型进行标签生成,结合多标签对比学习损失和自适应加权机制,显著提升了分类性能。
关键设计:在损失函数设计上,采用了多标签对比学习损失,并引入自适应加权机制,以提高多标签分类的准确性和鲁棒性。
🖼️ 关键图片
📊 实验亮点
实验结果表明,LLM-SSC在顺序句子分类任务中表现优异,尤其是在上下文学习和任务特定调优设置下,相较于基线方法,分类准确率提升了约15%。
🎯 应用场景
该研究的潜在应用领域包括生物医学文献的自动分类、信息检索和摘要生成等。通过提高顺序句子分类的准确性,LLM-SSC框架能够为科研人员提供更高效的信息获取工具,推动相关领域的研究进展。
📄 摘要(原文)
Sequential sentence classification (SSC) in scientific publications is crucial for supporting downstream tasks such as fine-grained information retrieval and extractive summarization. However, current SSC methods are constrained by model size, sequence length, and single-label setting. To address these limitations, this paper proposes LLM-SSC, a large language model (LLM)-based framework for both single- and multi-label SSC tasks. Unlike previous approaches that employ small- or medium-sized language models, the proposed framework utilizes LLMs to generate SSC labels through designed prompts, which enhance task understanding by incorporating demonstrations and a query to describe the prediction target. We also present a multi-label contrastive learning loss with auto-weighting scheme, enabling the multi-label classification task. To support our multi-label SSC analysis, we introduce and release a new dataset, biorc800, which mainly contains unstructured abstracts in the biomedical domain with manual annotations. Experiments demonstrate LLM-SSC's strong performance in SSC under both in-context learning and task-specific tuning settings. We release biorc800 and our code at: https://github.com/ScienceNLP-Lab/LLM-SSC.