Oranits: Mission Assignment and Task Offloading in Open RAN-based ITS using Metaheuristic and Deep Reinforcement Learning

📄 arXiv: 2507.19712v2 📥 PDF

作者: Ngoc Hung Nguyen, Nguyen Van Thieu, Quang-Trung Luu, Anh Tuan Nguyen, Senura Wanasekara, Nguyen Cong Luong, Fatemeh Kavehmadavani, Van-Dinh Nguyen

分类: cs.DC, cs.AI, cs.GT, cs.LG, cs.NI

发布日期: 2025-07-25 (更新: 2025-08-14)

备注: 15 pages, 13 figures


💡 一句话要点

Oranits:基于元启发式算法和深度强化学习的Open RAN智能交通系统任务分配与卸载

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: Open RAN 智能交通系统 任务分配 任务卸载 元启发式算法 深度强化学习 边缘计算

📋 核心要点

  1. 现有ITS任务分配方法忽略任务依赖性和卸载成本,导致决策不优。
  2. Oranits系统显式考虑任务依赖和卸载成本,通过车辆协作优化性能。
  3. 实验表明,CGG-ARO和MA-DDQN分别使任务完成度和总体效益提升7.1%/7.7%和11.0%/12.5%。

📝 摘要(中文)

本文研究了基于开放无线接入网络(Open RAN)的智能交通系统(ITS)中的任务分配和卸载问题,其中自动驾驶车辆利用移动边缘计算进行高效处理。现有研究通常忽略任务之间复杂的相互依赖性以及将任务卸载到边缘服务器的成本,导致次优的决策。为了弥补这一差距,我们提出了Oranits,一种新颖的系统模型,它显式地考虑了任务依赖性和卸载成本,同时通过车辆协作优化性能。为此,我们提出了一种双重优化方法。首先,我们开发了一种基于元启发式的进化计算算法,即基于混沌高斯全局ARO(CGG-ARO),作为单时隙优化的基线。其次,我们设计了一个增强的基于奖励的深度强化学习(DRL)框架,称为多智能体双深度Q网络(MA-DDQN),它集成了多智能体协调和多动作选择机制,显著减少了任务分配时间,并提高了对基线方法的适应性。大量仿真表明,CGG-ARO使完成的任务数量和总体效益分别提高了约7.1%和7.7%。同时,MA-DDQN在任务完成数量和总体效益方面实现了更大的改进,分别提高了11.0%和12.5%。这些结果突出了Oranits在动态ITS环境中实现更快、更自适应和更高效的任务处理的有效性。

🔬 方法详解

问题定义:论文旨在解决Open RAN架构下智能交通系统(ITS)中,如何高效地进行任务分配和任务卸载的问题。现有方法的痛点在于忽略了任务之间的依赖关系以及任务卸载到边缘服务器所产生的成本,导致无法做出最优的任务分配和卸载决策,从而影响整个系统的性能和效率。

核心思路:论文的核心思路是设计一个能够同时考虑任务依赖关系和卸载成本的系统模型Oranits,并通过车辆之间的协作来优化任务分配和卸载策略。具体而言,论文提出了两种优化方法:一种是基于元启发式算法的CGG-ARO,另一种是基于深度强化学习的MA-DDQN。这样设计的目的是为了在不同的场景下,能够根据实际情况选择合适的优化方法,从而提高系统的适应性和鲁棒性。

技术框架:Oranits系统的整体框架包含以下几个主要模块:1) 任务建模模块,用于描述任务的属性和依赖关系;2) 资源管理模块,用于管理边缘服务器的计算资源;3) 任务分配模块,负责将任务分配给合适的车辆或边缘服务器;4) 任务卸载模块,负责将任务从车辆卸载到边缘服务器;5) 优化模块,使用CGG-ARO或MA-DDQN算法来优化任务分配和卸载策略。整个流程是:首先对任务进行建模,然后根据资源情况进行任务分配和卸载,最后通过优化算法不断调整策略,以达到最优的系统性能。

关键创新:论文最重要的技术创新点在于提出了一个能够同时考虑任务依赖关系和卸载成本的系统模型Oranits,并设计了两种不同的优化算法来解决任务分配和卸载问题。与现有方法相比,Oranits能够更全面地考虑影响任务分配和卸载决策的因素,从而做出更优的决策。此外,MA-DDQN算法通过集成多智能体协调和多动作选择机制,进一步提高了系统的适应性和鲁棒性。

关键设计:在CGG-ARO算法中,关键的设计在于如何利用混沌高斯策略来增强算法的全局搜索能力,从而避免陷入局部最优解。在MA-DDQN算法中,关键的设计在于如何定义奖励函数,使其能够反映任务完成情况和卸载成本,以及如何设计网络结构,使其能够有效地学习多智能体之间的协作策略。此外,论文还对一些关键参数进行了调整,例如学习率、折扣因子等,以提高算法的收敛速度和性能。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,CGG-ARO算法在任务完成数量和总体效益方面分别比现有方法提高了约7.1%和7.7%。更重要的是,MA-DDQN算法取得了更大的改进,在任务完成数量和总体效益方面分别提高了11.0%和12.5%。这些数据充分证明了Oranits系统在动态ITS环境中能够实现更快、更自适应和更高效的任务处理。

🎯 应用场景

该研究成果可应用于智能交通系统、自动驾驶、车联网等领域。通过优化任务分配和卸载,可以提高自动驾驶车辆的响应速度和计算效率,降低延迟,提升用户体验,并为未来的智慧城市建设提供技术支撑。该研究还可扩展到其他需要边缘计算支持的场景,如智慧医疗、工业自动化等。

📄 摘要(原文)

In this paper, we explore mission assignment and task offloading in an Open Radio Access Network (Open RAN)-based intelligent transportation system (ITS), where autonomous vehicles leverage mobile edge computing for efficient processing. Existing studies often overlook the intricate interdependencies between missions and the costs associated with offloading tasks to edge servers, leading to suboptimal decision-making. To bridge this gap, we introduce Oranits, a novel system model that explicitly accounts for mission dependencies and offloading costs while optimizing performance through vehicle cooperation. To achieve this, we propose a twofold optimization approach. First, we develop a metaheuristic-based evolutionary computing algorithm, namely the Chaotic Gaussian-based Global ARO (CGG-ARO), serving as a baseline for one-slot optimization. Second, we design an enhanced reward-based deep reinforcement learning (DRL) framework, referred to as the Multi-agent Double Deep Q-Network (MA-DDQN), that integrates both multi-agent coordination and multi-action selection mechanisms, significantly reducing mission assignment time and improving adaptability over baseline methods. Extensive simulations reveal that CGG-ARO improves the number of completed missions and overall benefit by approximately 7.1% and 7.7%, respectively. Meanwhile, MA-DDQN achieves even greater improvements of 11.0% in terms of mission completions and 12.5% in terms of the overall benefit. These results highlight the effectiveness of Oranits in enabling faster, more adaptive, and more efficient task processing in dynamic ITS environments.