A Foundation Model for Massive MIMO Precoding with an Adaptive per-User Rate-Power Tradeoff

📄 arXiv: 2507.18587v1 📥 PDF

作者: Jérôme Emery, Ali Hasanzadeh Karkan, Jean-François Frigon, François Leduc-Primeau

分类: eess.SP, cs.AI

发布日期: 2025-07-24

备注: 6 pages, 3 figures. Accepted to the IEEE International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC) 2025


💡 一句话要点

提出基于Transformer的mMIMO预编码基础模型,自适应用户速率-功率权衡。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大规模MIMO 预编码 深度学习 Transformer 基础模型 速率-功率权衡 数据增强

📋 核心要点

  1. 深度学习在mMIMO预编码中展现潜力,但训练需要高质量本地数据集,而收集这些数据往往很困难。
  2. 论文提出基于Transformer的基础模型,通过动态调整用户速率需求,最小化发射机能耗。
  3. 实验表明,该模型零样本部署性能优于迫零算法,复杂度更低,并提出数据增强方法解决数据稀缺问题。

📝 摘要(中文)

本文提出了一种基于Transformer的mMIMO预编码基础模型,旨在最小化发射机的能量消耗,同时动态适应每个用户的速率需求。该模型能够在相同能量消耗下,以零样本方式部署,显著优于迫零算法,并以8倍更低的复杂度接近加权最小均方误差的性能。为了解决数据稀缺环境下的模型适应问题,我们引入了一种数据增强方法,通过计算预训练特征提取器输出之间的余弦相似度,找到与目标分布相似的训练样本。我们的工作通过解决数据可用性和训练复杂性的挑战,使基于深度学习的解决方案在实践中得以应用。此外,动态配置每个用户速率需求的能力可以被更高级别的资源分配和调度算法利用,从而更好地控制能源效率、频谱效率和公平性。

🔬 方法详解

问题定义:现有的基于深度学习的mMIMO预编码方法通常需要大量的、高质量的本地数据集进行训练,这在实际部署中是一个巨大的挑战。因为无线信道环境复杂多变,难以收集到覆盖所有场景的数据。此外,如何在保证用户服务质量(速率需求)的同时,最小化发射机的能量消耗也是一个关键问题。

核心思路:论文的核心思路是利用Transformer架构构建一个预训练的基础模型,该模型能够学习到通用的信道特征和预编码策略。通过预训练,模型可以在新的、数据稀缺的环境中进行快速适应。此外,论文还引入了一种自适应的速率-功率权衡机制,允许模型根据用户的速率需求动态调整发射功率,从而在满足用户需求的同时,最小化能量消耗。

技术框架:该方法主要包含以下几个阶段:1) 离线预训练阶段:使用大量的模拟或真实数据训练Transformer基础模型,使其学习通用的信道特征和预编码策略。2) 在线适应阶段:当模型部署到新的环境中时,利用少量的数据,通过数据增强和微调等技术,使模型适应新的信道环境。3) 预编码阶段:根据用户的速率需求和信道状态信息,利用训练好的模型生成预编码矩阵,并进行数据传输。

关键创新:该论文的关键创新在于:1) 提出了基于Transformer的mMIMO预编码基础模型,能够学习通用的信道特征和预编码策略。2) 引入了一种自适应的速率-功率权衡机制,允许模型根据用户的速率需求动态调整发射功率。3) 提出了一种数据增强方法,通过计算预训练特征提取器输出之间的余弦相似度,找到与目标分布相似的训练样本,从而解决数据稀缺问题。

关键设计:该模型使用Transformer编码器-解码器结构,编码器输入为信道状态信息(CSI),解码器输出为预编码矩阵。损失函数包括能量消耗项和速率约束项,通过调整权重系数实现速率-功率的权衡。数据增强方法通过计算预训练特征提取器输出之间的余弦相似度,选择与目标分布最相似的训练样本,并将其加入到训练集中。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,在相同能量消耗下,该基础模型以零样本方式部署,性能显著优于迫零算法,并以8倍更低的复杂度接近加权最小均方误差的性能。此外,所提出的数据增强方法能够有效提高模型在数据稀缺环境下的适应能力,进一步提升了系统的性能。

🎯 应用场景

该研究成果可应用于大规模MIMO通信系统,尤其是在数据稀缺或信道环境快速变化的场景下。例如,在农村地区或突发事件现场,由于难以收集到足够的数据,该方法可以快速部署并提供可靠的通信服务。此外,该方法还可以用于智能电网、物联网等对能量效率有较高要求的应用场景。

📄 摘要(原文)

Deep learning (DL) has emerged as a solution for precoding in massive multiple-input multiple-output (mMIMO) systems due to its capacity to learn the characteristics of the propagation environment. However, training such a model requires high-quality, local datasets at the deployment site, which are often difficult to collect. We propose a transformer-based foundation model for mMIMO precoding that seeks to minimize the energy consumption of the transmitter while dynamically adapting to per-user rate requirements. At equal energy consumption, zero-shot deployment of the proposed foundation model significantly outperforms zero forcing, and approaches weighted minimum mean squared error performance with 8x less complexity. To address model adaptation in data-scarce settings, we introduce a data augmentation method that finds training samples similar to the target distribution by computing the cosine similarity between the outputs of the pre-trained feature extractor. Our work enables the implementation of DL-based solutions in practice by addressing challenges of data availability and training complexity. Moreover, the ability to dynamically configure per-user rate requirements can be leveraged by higher level resource allocation and scheduling algorithms for greater control over energy efficiency, spectral efficiency and fairness.