SAGAI-MID: A Generative AI-Driven Middleware for Dynamic Runtime Interoperability

📄 arXiv: 2603.28731v1 📥 PDF

作者: Oliver Aleksander Larsen, Mahyar T. Moghaddam

分类: cs.SE, cs.AI

发布日期: 2026-03-30

备注: Accepted at SAGAI 2026, co-located with IEEE ICSA 2026. 8 pages


💡 一句话要点

SAGAI-MID:利用生成式AI中间件实现动态运行时互操作性

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 互操作性 大型语言模型 运行时适配 模式转换 分布式系统 中间件 生成式AI

📋 核心要点

  1. 现有分布式系统面临异构服务间模式不匹配的挑战,传统静态适配器无法应对运行时的新组合。
  2. SAGAI-MID利用LLM动态检测和解决模式不匹配,通过混合检测、双重解决方案和安全保障栈实现互操作性。
  3. 实验表明,SAGAI-MID在多种互操作性场景中表现出色,CODEGEN策略优于DIRECT,且成本效益因模型而异。

📝 摘要(中文)

现代分布式系统集成了异构服务,包括具有不同模式版本的REST API、GraphQL端点以及具有专有payload的IoT设备,这些系统经常遭受模式不匹配的问题。传统的静态适配器需要为每对模式进行手动编码,并且无法处理运行时的新的组合。我们提出了SAGAI-MID,一个基于FastAPI的中间件,它使用大型语言模型(LLM)来动态地检测和解决运行时的模式不匹配问题。该系统采用五层pipeline:混合检测(结构差异加上LLM语义分析)、双重解决方案(per-request LLM转换和LLM生成的可以复用的适配器代码)以及三层安全保障栈(验证、集成投票、基于规则的fallback)。我们通过Bass等人提出的互操作性策略来构建架构,将它们从设计时artifact转换为运行时能力。我们在10个互操作性场景中评估了SAGAI-MID,这些场景涵盖了REST版本迁移、IoT到分析的桥接以及跨两个提供商的六个LLM的GraphQL协议转换。最佳配置实现了0.90的pass@1准确率。CODEGEN策略始终优于DIRECT(平均pass@1分别为0.83和0.77),而不同模型之间的成本差异超过30倍,且准确率没有成比例的提高;最准确的模型也是最便宜的。我们讨论了软件架构师采用LLM作为运行时架构组件的影响。

🔬 方法详解

问题定义:论文旨在解决现代分布式系统中异构服务之间由于模式不匹配而导致的互操作性问题。现有方法,如静态适配器,需要手动编码,无法灵活应对运行时出现的新模式组合,导致开发和维护成本高昂,且难以适应快速变化的需求。

核心思路:论文的核心思路是利用大型语言模型(LLM)的强大语义理解和生成能力,构建一个动态的中间件,使其能够在运行时自动检测和解决模式不匹配问题。通过将互操作性策略从设计时转移到运行时,实现更灵活、可扩展的系统集成。

技术框架:SAGAI-MID的整体架构是一个五层pipeline,包括:1) 混合检测层:结合结构差异分析和LLM语义分析来检测模式不匹配;2) 双重解决方案层:提供两种策略,一是per-request LLM转换,二是LLM生成可复用的适配器代码;3) 三层安全保障栈:包括验证、集成投票和基于规则的fallback机制,确保转换的正确性和可靠性。中间件基于FastAPI构建,易于部署和集成。

关键创新:该论文的关键创新在于将LLM作为运行时架构组件,实现动态的模式转换和适配。与传统的静态适配器相比,SAGAI-MID能够自动处理新的模式组合,减少了手动编码的工作量,提高了系统的灵活性和可维护性。此外,双重解决方案和安全保障栈的设计进一步增强了系统的鲁棒性和可靠性。

关键设计:混合检测层结合了结构化差异分析(例如,比较JSON Schema)和LLM的语义理解,以提高检测的准确性。双重解决方案中,CODEGEN策略利用LLM生成可复用的适配器代码,而DIRECT策略则直接使用LLM进行per-request转换。安全保障栈通过验证转换后的数据是否符合目标模式、使用集成投票来减少LLM的幻觉问题,并提供基于规则的fallback机制,以应对LLM失效的情况。具体参数设置和损失函数等技术细节未在摘要中详细说明,属于未知信息。

📊 实验亮点

实验结果表明,SAGAI-MID在多种互操作性场景中表现出色,最佳配置实现了0.90的pass@1准确率。CODEGEN策略始终优于DIRECT策略(平均pass@1分别为0.83和0.77)。值得注意的是,不同LLM之间的成本差异巨大(超过30倍),但准确率并没有成比例的提高,甚至最准确的模型也是最便宜的,这为LLM的选择提供了重要的参考。

🎯 应用场景

SAGAI-MID具有广泛的应用前景,可用于集成异构的微服务架构、桥接IoT设备与数据分析平台、实现不同版本API之间的平滑迁移等。该研究有助于降低分布式系统集成的复杂性,提高系统的灵活性和可维护性,加速数字化转型。

📄 摘要(原文)

Modern distributed systems integrate heterogeneous services, REST APIs with different schema versions, GraphQL endpoints, and IoT devices with proprietary payloads that suffer from persistent schema mismatches. Traditional static adapters require manual coding for every schema pair and cannot handle novel combinations at runtime. We present SAGAI-MID, a FastAPI-based middleware that uses large language models (LLMs) to dynamically detect and resolve schema mismatches at runtime. The system employs a five-layer pipeline: hybrid detection (structural diff plus LLM semantic analysis), dual resolution strategies (per-request LLM transformation and LLM-generated reusable adapter code), and a three-tier safeguard stack (validation, ensemble voting, rule-based fallback). We frame the architecture through Bass et al.'s interoperability tactics, transforming them from design-time artifacts into runtime capabilities. We evaluate SAGAI-MID on 10 interoperability scenarios spanning REST version migration, IoT-to-analytics bridging, and GraphQL protocol conversion across six LLMs from two providers. The best-performing configuration achieves 0.90 pass@1 accuracy. The CODEGEN strategy consistently outperforms DIRECT (0.83 vs 0.77 mean pass@1), while cost varies by over 30x across models with no proportional accuracy gain; the most accurate model is also the cheapest. We discuss implications for software architects adopting LLMs as runtime architectural components.