DScheLLM: Enabling Dynamic Scheduling through a Fine-Tuned Dual-System Large language Model
作者: Lixiang Zhang, Chenggong Zhao, Qing Gao, Xiaoke Zhao, Gengyi Bai, Jinhu Lv
分类: cs.AI
发布日期: 2026-01-14
备注: 14 pages, 6 figures
💡 一句话要点
DScheLLM:通过微调的双系统大语言模型实现动态调度
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 动态调度 大语言模型 作业车间调度 双系统推理 LoRA微调
📋 核心要点
- 传统生产调度方法难以适应处理时间变化、机器故障等动态扰动,泛化能力受限。
- DScheLLM采用双系统(快-慢)推理架构,利用微调的大语言模型应对不同规模的扰动。
- 实验表明,DScheLLM的快速模式能高效生成高质量调度,慢速模式能生成求解器兼容的决策输入。
📝 摘要(中文)
生产调度极易受到动态扰动的影响,例如处理时间的变化、机器可用性和意外的任务插入。传统方法通常依赖于特定事件的模型和显式分析公式,这限制了它们在先前未见过的扰动中的适应性和泛化能力。为了克服这些限制,本文提出了一种动态调度方法DScheLLM,该方法利用微调的大语言模型在双系统(快-慢)推理架构中处理不同规模的扰动。构建了一个统一的基于大语言模型的框架来处理动态事件,其中快速和慢速推理模式的训练数据集都是使用运筹学求解器获得的精确调度生成的。随后,使用LoRA在混合推理范式下对华为OpenPangu Embedded-7B模型进行微调。在标准作业车间调度基准上的实验评估表明,快速思考模式可以有效地生成高质量的调度,而慢速思考模式可以生成与求解器兼容且格式良好的决策输入。据我们所知,这项工作是最早将大型语言模型应用于动态环境中的作业车间调度的研究之一,突出了它们在智能和自适应调度优化方面的巨大潜力。
🔬 方法详解
问题定义:论文旨在解决动态作业车间调度问题,即在生产过程中存在各种不确定性因素(如机器故障、任务到达时间变化等)的情况下,如何快速有效地调整调度方案,以优化生产效率。现有方法通常依赖于针对特定扰动的模型或规则,缺乏通用性和适应性,难以应对复杂多变的实际生产环境。
核心思路:论文的核心思路是利用大语言模型(LLM)的强大推理和泛化能力,构建一个能够根据动态事件快速生成高质量调度方案的智能调度系统。通过模仿人类的“快思考”和“慢思考”模式,设计双系统推理架构,分别处理不同规模的扰动。
技术框架:DScheLLM采用双系统推理架构,包含快速思考模式和慢速思考模式。快速思考模式旨在快速生成初步调度方案,适用于小规模扰动;慢速思考模式则负责生成与运筹学求解器兼容的决策输入,用于处理大规模扰动,并对快速思考模式的结果进行优化。整个框架使用统一的基于LLM的模型,通过微调实现对动态事件的理解和处理。
关键创新:该论文的关键创新在于将大语言模型应用于动态作业车间调度问题,并提出了双系统推理架构。与传统方法相比,DScheLLM能够更好地适应动态环境,具有更强的泛化能力。此外,论文还探索了如何利用LLM生成与运筹学求解器兼容的决策输入,实现了LLM与传统优化方法的有效结合。
关键设计:论文使用华为OpenPangu Embedded-7B模型作为基础LLM,并使用LoRA(Low-Rank Adaptation)进行微调。训练数据由运筹学求解器生成的精确调度方案构成,用于指导LLM学习调度策略。针对快速和慢速思考模式,分别设计了不同的训练目标和推理策略。具体参数设置和损失函数等技术细节在论文中未详细描述,属于未知信息。
📊 实验亮点
论文在标准作业车间调度基准上进行了实验评估,结果表明DScheLLM的快速思考模式能够高效生成高质量的调度方案,而慢速思考模式能够生成与求解器兼容且格式良好的决策输入。具体的性能数据和对比基线在摘要中未提及,属于未知信息。但论文强调,这是最早将大型语言模型应用于动态环境中的作业车间调度的研究之一,具有重要的探索意义。
🎯 应用场景
DScheLLM可应用于各种制造业场景,例如半导体制造、汽车制造、电子产品组装等。它可以帮助企业应对生产过程中的各种不确定性,提高生产效率,降低生产成本。未来,该研究可以扩展到更复杂的调度问题,例如考虑多目标优化、资源约束等因素,并与其他智能制造技术相结合,实现更智能化的生产调度。
📄 摘要(原文)
Production scheduling is highly susceptible to dynamic disruptions, such as variations in processing times, machine availability, and unexpected task insertions. Conventional approaches typically rely on event-specific models and explicit analytical formulations, which limits their adaptability and generalization across previously unseen disturbances. To overcome these limitations, this paper proposes DScheLLM, a dynamic scheduling approach that leverages fine-tuned large language models within a dual-system (fast-slow) reasoning architecture to address disturbances of different scales. A unified large language model-based framework is constructed to handle dynamic events, where training datasets for both fast and slow reasoning modes are generated using exact schedules obtained from an operations research solver. The Huawei OpenPangu Embedded-7B model is subsequently fine-tuned under the hybrid reasoning paradigms using LoRA. Experimental evaluations on standard job shop scheduling benchmarks demonstrate that the fast-thinking mode can efficiently generate high-quality schedules and the slow-thinking mode can produce solver-compatible and well-formatted decision inputs. To the best of our knowledge, this work represents one of the earliest studies applying large language models to job shop scheduling in dynamic environments, highlighting their considerable potential for intelligent and adaptive scheduling optimization.