Edge Learning via Federated Split Decision Transformers for Metaverse Resource Allocation

📄 arXiv: 2602.16174v1 📥 PDF

作者: Fatih Temiz, Shavbo Salehi, Melike Erol-Kantarci

分类: cs.NI, cs.AI, cs.MM

发布日期: 2026-02-18

备注: 6 pages, 4 figures, Accepted paper at IEEE International Conference on Communications (ICC) 2026


💡 一句话要点

提出联邦拆分决策Transformer(FSDT)以优化元宇宙资源分配,提升异构环境下的用户体验。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 联邦学习 移动边缘计算 元宇宙 资源分配 决策Transformer 强化学习 异构环境

📋 核心要点

  1. 传统联邦学习在异构环境下性能下降,且需传输大量模型参数,增加了MEC服务器的负担。
  2. 论文提出联邦拆分决策Transformer(FSDT),将Transformer模型拆分到MEC服务器和云端,实现本地适应和全局协作。
  3. 实验表明,FSDT在异构环境中将用户体验(QoE)提高了高达10%,并将近98%的模型参数卸载到云端。

📝 摘要(中文)

本文提出了一种基于移动边缘计算(MEC)的无线元宇宙服务资源分配方案,旨在严格的延迟约束和视觉质量要求下,实现卓越的用户体验(QoE)。为了实现这一目标,需要MEC服务器之间的协调,以利用分布式数据来支持基于MEC的虚拟现实用户的智能资源分配。联邦学习(FL)是一种有前景的解决方案,可以与强化学习(RL)相结合,以开发跨MEC服务器的通用策略。然而,传统的FL会产生跨MEC服务器和云传输完整模型参数的开销,并且由于简单的全局聚合而导致性能下降,尤其是在异构多无线接入技术环境中。为了解决这些挑战,本文提出了一种联邦拆分决策Transformer(FSDT),这是一种离线RL框架,其中Transformer模型在MEC服务器和云之间进行分区。特定于代理的组件(例如,基于MEC的嵌入和预测层)实现了本地适应性,而云中共享的全局层则促进了跨MEC服务器的协作训练。实验结果表明,与基线相比,FSDT在异构环境中将QoE提高了高达10%,同时将近98%的Transformer模型参数卸载到云,从而减轻了MEC服务器的计算负担。

🔬 方法详解

问题定义:论文旨在解决异构无线环境下,基于MEC的元宇宙服务资源分配问题。现有联邦学习方法在异构环境下性能表现不佳,且需要传输大量模型参数,增加了MEC服务器的计算负担,难以满足低延迟和高质量的用户体验需求。

核心思路:论文的核心思路是将Transformer模型进行拆分,一部分部署在MEC服务器上,负责本地特征提取和预测;另一部分部署在云端,负责全局知识共享和模型更新。通过这种方式,既能保证模型的全局性能,又能减轻MEC服务器的计算负担,并提高模型在异构环境下的适应性。

技术框架:FSDT框架包含以下几个主要模块:1) MEC服务器端的本地嵌入层和预测层,负责处理本地数据并生成初步的决策;2) 云端的共享Transformer层,负责学习全局策略和知识;3) 联邦学习聚合模块,负责将MEC服务器端的模型更新上传到云端,并进行全局模型更新;4) 决策执行模块,负责将云端更新后的模型参数下发到MEC服务器端,并执行资源分配决策。

关键创新:论文最重要的技术创新点在于联邦拆分Transformer架构。与传统的联邦学习方法相比,FSDT不需要传输完整的模型参数,而是只传输部分模型更新,从而大大降低了通信开销。此外,FSDT的拆分架构允许MEC服务器端进行本地适应,从而提高了模型在异构环境下的性能。

关键设计:论文采用离线强化学习方法训练决策Transformer模型。具体来说,首先收集历史数据,然后使用这些数据训练Transformer模型。损失函数包括策略损失和价值损失,用于优化模型的策略和价值函数。网络结构方面,MEC服务器端采用较小的Transformer模型,以降低计算复杂度;云端采用较大的Transformer模型,以提高模型容量。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,与基线方法相比,FSDT在异构环境下将用户体验(QoE)提高了高达10%。同时,FSDT能够将近98%的Transformer模型参数卸载到云端,从而显著减轻了MEC服务器的计算负担。这些结果表明,FSDT是一种有效的元宇宙资源分配方案,具有良好的性能和可扩展性。

🎯 应用场景

该研究成果可应用于各种基于MEC的元宇宙服务,例如虚拟现实游戏、增强现实应用、远程协作等。通过优化资源分配,可以显著提升用户体验,降低延迟,提高视觉质量,并为未来的沉浸式体验奠定基础。此外,该方法还可以推广到其他需要分布式数据处理和模型训练的场景,例如智能交通、智慧城市等。

📄 摘要(原文)

Mobile edge computing (MEC) based wireless metaverse services offer an untethered, immersive experience to users, where the superior quality of experience (QoE) needs to be achieved under stringent latency constraints and visual quality demands. To achieve this, MEC-based intelligent resource allocation for virtual reality users needs to be supported by coordination across MEC servers to harness distributed data. Federated learning (FL) is a promising solution, and can be combined with reinforcement learning (RL) to develop generalized policies across MEC-servers. However, conventional FL incurs transmitting the full model parameters across the MEC-servers and the cloud, and suffer performance degradation due to naive global aggregation, especially in heterogeneous multi-radio access technology environments. To address these challenges, this paper proposes Federated Split Decision Transformer (FSDT), an offline RL framework where the transformer model is partitioned between MEC servers and the cloud. Agent-specific components (e.g., MEC-based embedding and prediction layers) enable local adaptability, while shared global layers in the cloud facilitate cooperative training across MEC servers. Experimental results demonstrate that FSDT enhances QoE for up to 10% in heterogeneous environments compared to baselines, while offloadingnearly 98% of the transformer model parameters to the cloud, thereby reducing the computational burden on MEC servers.