AutoLink: Autonomous Schema Exploration and Expansion for Scalable Schema Linking in Text-to-SQL at Scale

📄 arXiv: 2511.17190v1 📥 PDF

作者: Ziyang Wang, Yuanlei Zheng, Zhenbiao Cao, Xiaojin Zhang, Zhongyu Wei, Pei Fu, Zhenbo Luo, Wei Chen, Xiang Bai

分类: cs.CL, cs.DB

发布日期: 2025-11-21


💡 一句话要点

AutoLink:面向大规模Text-to-SQL的自主模式探索与扩展,实现可扩展的模式链接

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: Text-to-SQL 模式链接 大型语言模型 自主代理 数据库模式

📋 核心要点

  1. 现有Text-to-SQL方法在处理大规模数据库时,由于上下文窗口限制和噪声,难以直接将完整数据库模式输入LLM。
  2. AutoLink通过LLM驱动的自主代理框架,迭代地探索和扩展相关模式子集,无需预先输入完整数据库模式。
  3. 实验表明,AutoLink在模式链接召回率和执行准确率上均优于现有方法,尤其是在大规模数据库上表现出卓越的可扩展性。

📝 摘要(中文)

针对工业级Text-to-SQL,由于上下文窗口限制和无关噪声,将整个数据库模式提供给大型语言模型(LLMs)是不切实际的。因此,模式链接(过滤模式到相关子集)至关重要。然而,现有方法成本高昂,难以权衡召回率和噪声,并且难以扩展到大型数据库。我们提出了AutoLink,一个自主代理框架,它将模式链接重新定义为一个迭代的、代理驱动的过程。在LLM的指导下,AutoLink动态地探索和扩展链接的模式子集,逐步识别必要的模式组件,而无需输入完整的数据库模式。实验表明,AutoLink表现出色,在Bird-Dev上实现了97.4%的最先进的严格模式链接召回率,在Spider-2.0-Lite上实现了91.2%的召回率,并具有竞争力的执行准确率,即Bird-Dev上68.7%的EX(优于CHESS)和Spider-2.0-Lite上34.9%的EX(在官方排行榜上排名第二)。至关重要的是,AutoLink表现出卓越的可扩展性,在大型模式(例如,超过3,000列)上保持高召回率、高效的token消耗和强大的执行准确率,而现有方法在这些模式上会严重退化,使其成为工业Text-to-SQL系统的高度可扩展、高召回率的模式链接解决方案。

🔬 方法详解

问题定义:现有Text-to-SQL系统在处理大规模数据库时,面临着模式链接的挑战。直接将完整数据库模式输入LLM会导致上下文窗口超出限制,并引入大量无关噪声,影响性能。现有的模式链接方法往往成本高昂,难以在召回率和噪声之间取得平衡,并且可扩展性差,无法有效处理大型数据库。

核心思路:AutoLink的核心思路是将模式链接过程建模为一个迭代的、代理驱动的探索过程。通过LLM作为智能体,动态地探索和扩展与给定Text-to-SQL查询相关的模式子集。这种方法避免了预先输入完整数据库模式,从而降低了计算成本,并减少了噪声的干扰。

技术框架:AutoLink的整体框架包含以下几个主要模块:1) LLM驱动的代理:负责根据当前查询和已探索的模式信息,决定下一步要探索的模式组件。2) 模式探索模块:根据代理的决策,从数据库模式中检索相关信息。3) 模式扩展模块:将新检索到的模式信息添加到已链接的模式子集中。4) 迭代控制模块:控制整个探索过程的迭代次数和停止条件。

关键创新:AutoLink最重要的技术创新在于其自主探索和扩展模式的能力。与传统的静态模式链接方法不同,AutoLink能够根据查询的上下文动态地调整探索策略,从而更有效地识别相关模式组件。这种自主性使得AutoLink能够更好地处理复杂查询和大型数据库。

关键设计:AutoLink的关键设计包括:1) 使用LLM作为代理,利用其强大的语义理解和推理能力来指导模式探索。2) 设计合适的提示工程(Prompt Engineering),引导LLM代理做出正确的决策。3) 采用迭代的探索策略,逐步完善链接的模式子集。4) 设置合理的停止条件,避免过度探索和浪费计算资源。具体参数设置和损失函数等细节未在摘要中提及,属于未知信息。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

AutoLink在Bird-Dev数据集上实现了97.4%的严格模式链接召回率,在Spider-2.0-Lite数据集上实现了91.2%的召回率,均达到了最先进水平。在执行准确率方面,AutoLink在Bird-Dev上达到了68.7%的EX,优于CHESS,在Spider-2.0-Lite上达到了34.9%的EX,在官方排行榜上排名第二。尤其值得一提的是,AutoLink在处理超过3000列的大型模式时,仍然能够保持高召回率和执行准确率,展现出卓越的可扩展性。

🎯 应用场景

AutoLink可应用于各种需要将自然语言查询转换为SQL语句的场景,例如智能客服、数据分析平台和数据库管理系统。它能够显著提高Text-to-SQL系统的可扩展性和准确性,尤其是在处理大规模数据库时。AutoLink的未来发展方向包括支持更复杂的查询类型、集成更多的数据库类型以及优化探索策略。

📄 摘要(原文)

For industrial-scale text-to-SQL, supplying the entire database schema to Large Language Models (LLMs) is impractical due to context window limits and irrelevant noise. Schema linking, which filters the schema to a relevant subset, is therefore critical. However, existing methods incur prohibitive costs, struggle to trade off recall and noise, and scale poorly to large databases. We present \textbf{AutoLink}, an autonomous agent framework that reformulates schema linking as an iterative, agent-driven process. Guided by an LLM, AutoLink dynamically explores and expands the linked schema subset, progressively identifying necessary schema components without inputting the full database schema. Our experiments demonstrate AutoLink's superior performance, achieving state-of-the-art strict schema linking recall of \textbf{97.4\%} on Bird-Dev and \textbf{91.2\%} on Spider-2.0-Lite, with competitive execution accuracy, i.e., \textbf{68.7\%} EX on Bird-Dev (better than CHESS) and \textbf{34.9\%} EX on Spider-2.0-Lite (ranking 2nd on the official leaderboard). Crucially, AutoLink exhibits \textbf{exceptional scalability}, \textbf{maintaining high recall}, \textbf{efficient token consumption}, and \textbf{robust execution accuracy} on large schemas (e.g., over 3,000 columns) where existing methods severely degrade-making it a highly scalable, high-recall schema-linking solution for industrial text-to-SQL systems.