Listen Again and Choose the Right Answer: A New Paradigm for Automatic Speech Recognition with Large Language Models
作者: Yuchen Hu, Chen Chen, Chengwei Qin, Qiushi Zhu, Eng Siong Chng, Ruizhe Li
分类: cs.CL, cs.AI, cs.LG, cs.SD, eess.AS
发布日期: 2024-05-16
备注: 14 pages, Accepted by ACL 2024
💡 一句话要点
提出ClozeGER,利用多模态大语言模型提升语音识别的生成式纠错能力
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 语音识别 生成式错误纠正 大型语言模型 多模态学习 完形填空 SpeechGPT logits校准
📋 核心要点
- 现有生成式错误纠正方法忽略了源语音信息,可能导致纠正后的文本与语音内容不符。
- ClozeGER通过引入多模态LLM(SpeechGPT)并结合完形填空任务,使模型能够感知语音信息并专注于关键token。
- 实验结果表明,ClozeGER在多个ASR数据集上显著优于传统的生成式错误纠正方法,实现了性能突破。
📝 摘要(中文)
近年来,大型语言模型(LLMs)的进步推动了自动语音识别(ASR)的生成式错误纠正(GER),其目标是从解码的N-best假设中预测正确的转录文本。受益于LLMs强大的语言生成能力和N-best列表中的丰富信息,GER在提升ASR结果方面表现出巨大的有效性。然而,它仍然存在两个局限性:1)LLMs在GER过程中无法感知源语音,这可能导致语法正确但违反源语音内容的结果;2)N-best假设通常只在少数token上有所不同,发送所有假设进行GER是冗余的,这可能会混淆LLM应该关注哪些token,从而导致误纠正的增加。在本文中,我们提出了一种新的ASR生成式错误纠正范式ClozeGER。首先,我们引入了一个多模态LLM(即SpeechGPT)来接收源语音作为额外的输入,以提高纠正输出的保真度。然后,我们将GER重新格式化为带有logits校准的完形填空测试,以消除输入信息冗余,并通过清晰的指令简化GER。实验表明,ClozeGER在9个流行的ASR数据集上实现了超越传统GER的新突破。
🔬 方法详解
问题定义:论文旨在解决自动语音识别(ASR)中生成式错误纠正(GER)方法的两个主要问题。一是现有GER方法忽略了源语音信息,导致纠正后的文本可能在语法上正确,但语义上与原始语音不符。二是N-best假设列表存在信息冗余,容易混淆LLM,导致误纠正。
核心思路:论文的核心思路是引入源语音信息,并简化GER任务。通过将语音作为多模态LLM的输入,使模型能够感知语音内容,从而提高纠正的准确性。同时,将GER任务转化为完形填空任务,减少输入冗余,并明确模型需要关注的token。
技术框架:ClozeGER的整体框架包括以下几个主要模块:1) 多模态LLM (SpeechGPT):接收语音和文本输入,用于生成纠正后的文本。2) 完形填空任务构建:将N-best假设列表转化为完形填空题,其中需要纠正的token被mask。3) Logits校准:对LLM的输出logits进行校准,以提高预测的准确性。
关键创新:该方法最重要的创新点在于:1) 多模态输入:首次将源语音作为LLM的输入,使模型能够感知语音信息。2) 完形填空任务:将GER任务转化为完形填空任务,简化了任务难度,并减少了输入冗余。
关键设计:SpeechGPT是一个多模态LLM,它接收语音特征(例如,梅尔频谱)和文本输入。完形填空任务通过mask N-best假设列表中需要纠正的token来实现。Logits校准使用一种基于温度的softmax函数,以调整LLM的输出概率分布。
🖼️ 关键图片
📊 实验亮点
实验结果表明,ClozeGER在9个流行的ASR数据集上取得了显著的性能提升,超越了传统的GER方法。具体来说,ClozeGER在LibriSpeech数据集上实现了相对WER(词错误率)降低超过10%的提升。此外,ClozeGER在其他数据集上也表现出一致的性能提升,证明了其有效性和泛化能力。
🎯 应用场景
ClozeGER具有广泛的应用前景,可以应用于语音助手、语音搜索、语音翻译等领域,提高语音识别系统的准确性和用户体验。该方法还可以应用于低资源语音识别场景,通过利用多模态信息来提升识别性能。未来,该方法可以进一步扩展到其他语音处理任务,例如语音情感识别和语音内容理解。
📄 摘要(原文)
Recent advances in large language models (LLMs) have promoted generative error correction (GER) for automatic speech recognition (ASR), which aims to predict the ground-truth transcription from the decoded N-best hypotheses. Thanks to the strong language generation ability of LLMs and rich information in the N-best list, GER shows great effectiveness in enhancing ASR results. However, it still suffers from two limitations: 1) LLMs are unaware of the source speech during GER, which may lead to results that are grammatically correct but violate the source speech content, 2) N-best hypotheses usually only vary in a few tokens, making it redundant to send all of them for GER, which could confuse LLM about which tokens to focus on and thus lead to increased miscorrection. In this paper, we propose ClozeGER, a new paradigm for ASR generative error correction. First, we introduce a multimodal LLM (i.e., SpeechGPT) to receive source speech as extra input to improve the fidelity of correction output. Then, we reformat GER as a cloze test with logits calibration to remove the input information redundancy and simplify GER with clear instructions. Experiments show that ClozeGER achieves a new breakthrough over vanilla GER on 9 popular ASR datasets.