Explaining novel senses using definition generation with open language models

📄 arXiv: 2509.26181v2 📥 PDF

作者: Mariia Fedorova, Andrey Kutuzov, Francesco Periti, Yves Scherrer

分类: cs.CL

发布日期: 2025-09-30 (更新: 2025-10-01)

备注: EMNLP 2025 Findings


💡 一句话要点

利用开放语言模型生成定义解释新词义,性能超越闭源模型。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 新词义解释 定义生成 开放语言模型 语义变化 微调 AXOLOTL'24 编码器-解码器模型

📋 核心要点

  1. 现有方法难以有效解释新出现的词义,尤其是在缺乏足够上下文信息的情况下。
  2. 利用开放权重的大型语言模型,通过定义生成的方式,为新词义提供可解释的语义信息。
  3. 实验结果表明,微调后的开源模型在解释新词义方面优于使用闭源LLM的最佳模型。

📝 摘要(中文)

本文应用基于开放权重的大型语言模型构建的定义生成器,以目标词语用法作为输入,来解释新词义。为此,我们采用了AXOLOTL'24共享任务中的数据集,该数据集包含芬兰语、俄语和德语。我们对开源模型进行了微调,并公开了这些模型,它们的性能优于上述共享任务的最佳提交结果,而后者使用了闭源专有LLM。此外,我们发现编码器-解码器定义生成器的性能与仅解码器对应模型相当。

🔬 方法详解

问题定义:论文旨在解决如何为新出现的词义提供清晰、准确的解释的问题。现有方法,特别是依赖闭源大型语言模型的方法,虽然在一定程度上能够生成定义,但存在成本高昂、可解释性差等问题,并且难以针对特定领域或语言进行定制优化。此外,缺乏开放的、可复现的基线模型也限制了该领域的研究进展。

核心思路:论文的核心思路是利用开放权重的大型语言模型,通过微调的方式,使其能够根据给定的目标词语用法生成相应的定义。这种方法旨在降低成本、提高可解释性,并促进研究的可复现性。通过使用定义生成器,模型能够将新词义置于具体的语境中,从而提供更易于理解的解释。

技术框架:论文的技术框架主要包括以下几个步骤:1) 选择合适的开放权重大型语言模型作为基础模型;2) 使用AXOLOTL'24共享任务提供的数据集(包含芬兰语、俄语和德语)进行微调;3) 设计合适的训练目标,例如最大化生成定义的概率;4) 评估模型在解释新词义方面的性能,并与现有方法进行比较。论文同时考察了编码器-解码器模型和仅解码器模型,并比较了它们的性能。

关键创新:论文的关键创新在于:1) 使用开放权重的大型语言模型,降低了研究成本,提高了可复现性;2) 证明了通过微调开放模型,可以超越使用闭源模型的现有方法;3) 发现编码器-解码器模型在定义生成任务中可以与仅解码器模型相媲美,为模型选择提供了新的视角。

关键设计:论文的关键设计包括:1) 选择了AXOLOTL'24共享任务的数据集,该数据集专门用于评估模型在解释新词义方面的能力;2) 对基础模型进行了微调,使其适应定义生成任务;3) 采用了标准的评估指标来衡量模型生成的定义的质量,例如BLEU、ROUGE等(具体指标可能在论文中有详细说明)。论文公开了微调后的模型,方便其他研究者使用和改进。

📊 实验亮点

实验结果表明,经过微调的开源模型在AXOLOTL'24共享任务的数据集上,性能超越了使用闭源专有LLM的最佳提交结果。此外,研究还发现,编码器-解码器结构的定义生成器与仅解码器结构的生成器性能相当,为未来的模型选择提供了更多可能性。

🎯 应用场景

该研究成果可应用于词典编纂、语义搜索、机器翻译等领域。通过自动生成新词义的解释,可以帮助人们更好地理解语言的变化,提高信息检索的准确性,并促进跨语言交流。此外,该技术还可以用于监测社交媒体上的新词语和流行语,从而更好地了解社会动态。

📄 摘要(原文)

We apply definition generators based on open-weights large language models to the task of creating explanations of novel senses, taking target word usages as an input. To this end, we employ the datasets from the AXOLOTL'24 shared task on explainable semantic change modeling, which features Finnish, Russian and German languages. We fine-tune and provide publicly the open-source models performing higher than the best submissions of the aforementioned shared task, which employed closed proprietary LLMs. In addition, we find that encoder-decoder definition generators perform on par with their decoder-only counterparts.