Text-to-SQL Task-oriented Dialogue Ontology Construction

📄 arXiv: 2507.23358v2 📥 PDF

作者: Renato Vukovic, Carel van Niekerk, Michael Heck, Benjamin Ruppik, Hsien-Chin Lin, Shutong Feng, Nurul Lubis, Milica Gasic

分类: cs.CL, cs.AI, cs.DB, cs.IR

发布日期: 2025-07-31 (更新: 2025-12-19)

备注: Accepted to Transactions of the Association for Computational Linguistics


💡 一句话要点

提出TeQoDO:利用LLM的SQL能力自动构建面向Text-to-SQL任务的对话本体

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Text-to-SQL 任务导向对话 本体构建 大型语言模型 对话状态跟踪

📋 核心要点

  1. 现有面向任务的对话系统依赖手动构建或监督训练的本体,成本高昂且难以扩展。
  2. TeQoDO利用LLM的SQL编程能力和模块化TOD系统概念,自动从头构建对话本体。
  3. 实验表明,TeQoDO优于迁移学习方法,并在对话状态跟踪任务中表现出竞争力,且可扩展到更大规模数据集。

📝 摘要(中文)

大型语言模型(LLMs)被广泛用作通用知识来源,但它们依赖于参数化知识,限制了解释性和可信度。在面向任务的对话(TOD)系统中,这种分离是显式的,使用由显式本体结构化的外部数据库来确保可解释性和可控性。然而,构建这样的本体需要手动标注或监督训练。我们介绍TeQoDO:一种Text-to-SQL任务导向对话本体构建方法。在这里,LLM仅使用其固有的SQL编程能力,结合prompt中提供的模块化TOD系统概念,从头开始自主构建TOD本体。我们表明,TeQoDO优于迁移学习方法,并且其构建的本体在下游对话状态跟踪任务中具有竞争力。消融研究表明了模块化TOD系统概念的关键作用。TeQoDO还可以扩展以构建更大的本体,我们在Wikipedia和arXiv数据集上对此进行了研究。我们认为这是朝着更广泛应用本体迈出的一步。

🔬 方法详解

问题定义:现有面向任务的对话系统(TOD)依赖于预定义的本体来管理对话状态和数据库查询。构建这些本体通常需要大量的人工标注或监督训练,这既耗时又昂贵,并且难以扩展到新的领域或数据库。此外,依赖参数化知识的LLM在可解释性和可控性方面存在局限性。

核心思路:TeQoDO的核心思路是利用大型语言模型(LLM)固有的SQL编程能力,结合模块化TOD系统的概念,让LLM能够自主地从头开始构建TOD本体。通过精心设计的prompt,引导LLM理解TOD系统的基本组件(例如领域、意图、槽位),并将其转化为SQL数据库模式,从而实现本体的自动构建。

技术框架:TeQoDO的整体流程如下:1) 输入:接收描述目标任务的自然语言文本描述;2) Prompt设计:将任务描述和模块化TOD系统概念(例如领域、意图、槽位)融入到prompt中;3) LLM执行:LLM根据prompt生成SQL代码,该代码定义了数据库模式,从而构建了TOD本体;4) 输出:生成的SQL数据库模式作为TOD本体。

关键创新:TeQoDO的关键创新在于它完全依赖LLM的固有能力,无需任何手动标注或监督训练。它将本体构建问题转化为一个SQL编程问题,利用LLM强大的代码生成能力来解决。与传统的迁移学习方法相比,TeQoDO更加灵活,能够适应新的领域和数据库。

关键设计:TeQoDO的关键设计在于prompt的设计。Prompt需要清晰地定义TOD系统的基本组件,并指导LLM如何将这些组件转化为SQL数据库模式。例如,prompt可以包含以下信息:1) 数据库的名称;2) 表的名称(对应于领域);3) 列的名称(对应于槽位);4) 数据类型(对应于槽位的值类型)。此外,还可以使用少量示例来进一步指导LLM的生成过程。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,TeQoDO在对话状态跟踪任务中优于迁移学习方法。消融研究表明,模块化TOD系统概念在TeQoDO中起着关键作用。此外,TeQoDO还能够扩展到更大规模的数据集,例如Wikipedia和arXiv,证明了其可扩展性和通用性。具体性能数据未知,但论文强调了TeQoDO的竞争力。

🎯 应用场景

TeQoDO可应用于快速构建面向任务的对话系统,尤其是在资源匮乏或需要快速适应新领域的场景下。它能够降低本体构建的成本和时间,加速对话系统的开发和部署。此外,该方法还可以扩展到其他需要结构化知识表示的领域,例如知识图谱构建和数据集成。

📄 摘要(原文)

Large language models (LLMs) are widely used as general-purpose knowledge sources, but they rely on parametric knowledge, limiting explainability and trustworthiness. In task-oriented dialogue (TOD) systems, this separation is explicit, using an external database structured by an explicit ontology to ensure explainability and controllability. However, building such ontologies requires manual labels or supervised training. We introduce TeQoDO: a Text-to-SQL task-oriented Dialogue Ontology construction method. Here, an LLM autonomously builds a TOD ontology from scratch using only its inherent SQL programming capabilities combined with concepts from modular TOD systems provided in the prompt. We show that TeQoDO outperforms transfer learning approaches, and its constructed ontology is competitive on a downstream dialogue state tracking task. Ablation studies demonstrate the key role of modular TOD system concepts. TeQoDO also scales to allow construction of much larger ontologies, which we investigate on a Wikipedia and arXiv dataset. We view this as a step towards broader application of ontologies.