LLM-Based Multi-Agent Blackboard System for Information Discovery in Data Science

📄 arXiv: 2510.01285v2 📥 PDF

作者: Alireza Salemi, Mihir Parmar, Palash Goyal, Yiwen Song, Jinsung Yoon, Hamed Zamani, Tomas Pfister, Hamid Palangi

分类: cs.MA, cs.AI, cs.CL, cs.IR, cs.LG

发布日期: 2025-09-30 (更新: 2026-01-31)


💡 一句话要点

提出基于LLM的多智能体黑板系统,解决数据科学中信息发现难题。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 多智能体系统 黑板架构 大型语言模型 数据发现 数据科学

📋 核心要点

  1. 现有数据科学方法在大型数据湖中信息发现效率低,单智能体和传统多智能体系统难以应对大规模异构数据。
  2. 论文提出基于黑板架构的多智能体系统,中央智能体发布请求,自主子智能体根据自身能力响应,提升可扩展性和灵活性。
  3. 实验结果表明,该方法在数据发现任务上显著优于现有基线,端到端成功率提升13%-57%,F1值提升高达9%。

📝 摘要(中文)

大型语言模型(LLM)的进步为数据科学创造了新的机遇,但其部署常常受到在大型数据湖中查找相关数据的挑战的限制。现有方法难以应对这一问题:单智能体和多智能体系统都很快被大型异构文件压垮,而主从式多智能体系统依赖于刚性的中央控制器,这需要精确了解每个子智能体的能力,这在主智能体无法完全观察子智能体的知识和能力的大规模环境中是不可能的。我们提出了一种受传统AI模型黑板架构启发的新的多智能体范式。在我们的框架中,中央智能体将请求发布到共享黑板上,负责数据湖分区或从网络检索的自主子智能体自愿根据其能力做出响应。这种设计通过消除中央协调器了解每个智能体的专业知识或内部知识的需求,从而提高了可扩展性和灵活性。我们在需要数据发现的三个基准测试(KramaBench以及DSBench和DA-Code的修改版本)上评估了该方法。结果表明,黑板架构大大优于强大的基线,在端到端成功率方面实现了13%-57%的相对改进,在数据发现F1方面比最佳基线提高了高达9%的相对增益。

🔬 方法详解

问题定义:论文旨在解决数据科学中,尤其是在大型数据湖中,如何高效发现相关信息的问题。现有方法,如单智能体和传统的主从式多智能体系统,在处理大规模、异构数据时面临可扩展性瓶颈。主从式系统还要求中央控制器精确了解每个子智能体的能力,这在实际应用中难以实现。

核心思路:论文的核心思路是借鉴传统AI中的黑板架构,构建一个去中心化的多智能体系统。中央智能体(或请求者)将任务发布到共享的“黑板”上,各个子智能体(数据源或检索代理)根据自身能力主动认领任务并提供解决方案。这种设计避免了中央控制器的负担,提高了系统的灵活性和可扩展性。

技术框架:该框架包含一个中央智能体(请求者)和一个或多个自主的子智能体(数据源或检索代理)。中央智能体负责将信息发现的任务分解为具体的请求,并将这些请求发布到共享的黑板上。子智能体监听黑板上的请求,并根据自身的能力判断是否能够处理该请求。如果子智能体认为可以处理该请求,则会主动认领任务,并执行相应的操作,例如从数据湖中检索数据或从网络上搜索信息。最后,子智能体将结果返回给中央智能体。

关键创新:最重要的技术创新在于将黑板架构引入到基于LLM的多智能体系统中,实现了去中心化的任务分配和协作。与传统的主从式系统相比,该方法不需要中央控制器了解每个子智能体的具体能力,从而提高了系统的可扩展性和鲁棒性。此外,子智能体的自主性也使得系统能够更好地适应动态变化的环境。

关键设计:论文中没有明确提及关键的参数设置、损失函数或网络结构等技术细节。但黑板架构本身的设计是关键,包括黑板的数据结构、请求的格式、子智能体认领任务的策略等。此外,如何利用LLM来增强中央智能体的任务分解能力和子智能体的任务执行能力也是重要的设计考虑。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,基于黑板架构的多智能体系统在KramaBench以及DSBench和DA-Code的修改版本等三个基准测试上,显著优于现有的基线方法。在端到端成功率方面,该方法实现了13%-57%的相对改进,在数据发现F1方面,比最佳基线提高了高达9%的相对增益。

🎯 应用场景

该研究成果可应用于各种需要数据发现的领域,例如企业数据分析、科学研究、知识图谱构建等。通过构建基于黑板架构的多智能体系统,可以更高效地从海量数据中发现有价值的信息,从而支持决策制定和创新。

📄 摘要(原文)

Advances in large language models (LLMs) have created new opportunities in data science, but their deployment is often limited by the challenge of finding relevant data in large data lakes. Existing methods struggle with this: both single- and multi-agent systems are quickly overwhelmed by large, heterogeneous files, and master-slave multi-agent systems rely on a rigid central controller that requires precise knowledge of each sub-agent's capabilities, which is not possible in large-scale settings where the main agent lacks full observability over sub-agents' knowledge and competencies. We propose a novel multi-agent paradigm inspired by the blackboard architecture for traditional AI models. In our framework, a central agent posts requests to a shared blackboard, and autonomous subordinate agents - either responsible for a partition of the data lake or retrieval from the web - volunteer to respond based on their capabilities. This design improves scalability and flexibility by removing the need for a central coordinator to know each agent's expertise or internal knowledge. We evaluate the approach on three benchmarks that require data discovery: KramaBench and modified versions of DSBench and DA-Code. Results show that the blackboard architecture substantially outperforms strong baselines, achieving 13%-57% relative improvements in end-to-end success and up to a 9% relative gain in data discovery F1 over the best baseline.