Federated Low-Rank Adaptation with Differential Privacy over Wireless Networks
作者: Tianqu Kang, Zixin Wang, Hengtao He, Jun Zhang, Shenghui Song, Khaled B. Letaief
分类: cs.LG, cs.CR, eess.SP
发布日期: 2024-11-12 (更新: 2024-11-27)
备注: 6 pages, 3 figures
💡 一句话要点
提出基于无线网络差分隐私的联邦低秩自适应框架,解决边缘设备微调大模型时的计算和隐私挑战。
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 联邦学习 差分隐私 低秩自适应 无线网络 边缘计算
📋 核心要点
- 现有联邦微调方法在边缘设备上微调大型预训练模型时,面临计算资源有限和隐私泄露的双重挑战。
- 论文提出一种基于无线网络的差分隐私联邦低秩自适应框架,利用无线信道噪声实现差分隐私,降低计算负担。
- 实验结果表明,该框架在严格的隐私预算下,相比于基线方法,能够实现更高的模型准确率。
📝 摘要(中文)
本文提出了一种基于无线网络的差分隐私联邦低秩自适应(split FedFT)框架,旨在解决在分布式边缘设备上微调大型预训练模型(FMs)时面临的计算和隐私挑战。该框架利用联邦学习在不共享原始数据的情况下进行协作模型训练,并通过低秩自适应(LoRA)减少资源受限设备的计算负担。此外,split FedFT架构将FM分割在边缘设备和中央服务器之间,降低了设备部署完整模型的需要。该方法利用上行链路传输中固有的无线信道噪声来实现差分隐私(DP)保证,无需额外添加人工噪声。研究了无线噪声对框架收敛性能的影响,并通过仅更新split FedFT中具有DP的一个低秩矩阵来减轻噪声放大效应。仿真结果表明,与基线方法相比,该框架在严格的隐私预算下实现了更高的准确性。
🔬 方法详解
问题定义:论文旨在解决联邦学习场景下,边缘设备在微调大型预训练模型时面临的计算资源限制和数据隐私泄露问题。传统的联邦微调方法需要大量的计算资源,并且在数据传输过程中存在被窃听的风险,尤其是在医疗和金融等敏感领域。
核心思路:论文的核心思路是结合split FedFT架构、低秩自适应(LoRA)和差分隐私(DP),并巧妙地利用无线信道的固有噪声来实现DP,从而在降低计算复杂度的同时,保护用户数据的隐私。通过只更新LoRA的低秩矩阵来减少噪声放大。
技术框架:该框架主要包含以下几个模块:1) 边缘设备:存储部分模型和数据,进行本地训练;2) 中央服务器:存储部分模型,聚合来自边缘设备的更新;3) 无线通信网络:边缘设备通过无线信道将更新发送到中央服务器。整体流程是:边缘设备使用本地数据和部分模型进行训练,然后通过无线信道将LoRA更新发送到中央服务器,中央服务器聚合这些更新并更新全局模型。
关键创新:论文的关键创新在于利用无线信道噪声来实现差分隐私,无需额外添加人工噪声。这种方法不仅节省了计算资源,还避免了因添加噪声而导致的性能下降。此外,通过split FedFT架构和LoRA的结合,进一步降低了边缘设备的计算负担。
关键设计:论文的关键设计包括:1) split FedFT架构,将模型分割在边缘设备和中央服务器之间;2) 低秩自适应(LoRA),只微调少量的低秩矩阵,降低计算复杂度;3) 利用无线信道噪声实现差分隐私,并分析了噪声对收敛性能的影响;4) 仅更新一个低秩矩阵以减轻噪声放大效应。具体参数设置和损失函数等细节在论文中进行了详细描述(未知)。
🖼️ 关键图片
📊 实验亮点
论文的实验结果表明,提出的框架在严格的隐私预算下,相比于基线方法,能够实现更高的模型准确率。具体性能提升幅度未知,但强调了在保证隐私的同时,模型性能优于其他方法。该结果验证了利用无线信道噪声实现差分隐私的可行性和有效性。
🎯 应用场景
该研究成果可应用于医疗、金融等对数据隐私要求较高的领域。例如,在医疗影像分析中,可以使用该框架在保护患者隐私的前提下,利用分布式医疗机构的数据训练高性能的AI模型。在金融风控领域,可以利用该框架在保护用户交易数据隐私的前提下,构建更精准的风控模型。该研究有助于推动联邦学习在实际场景中的应用。
📄 摘要(原文)
Fine-tuning large pre-trained foundation models (FMs) on distributed edge devices presents considerable computational and privacy challenges. Federated fine-tuning (FedFT) mitigates some privacy issues by facilitating collaborative model training without the need to share raw data. To lessen the computational burden on resource-limited devices, combining low-rank adaptation (LoRA) with federated learning enables parameter-efficient fine-tuning. Additionally, the split FedFT architecture partitions an FM between edge devices and a central server, reducing the necessity for complete model deployment on individual devices. However, the risk of privacy eavesdropping attacks in FedFT remains a concern, particularly in sensitive areas such as healthcare and finance. In this paper, we propose a split FedFT framework with differential privacy (DP) over wireless networks, where the inherent wireless channel noise in the uplink transmission is utilized to achieve DP guarantees without adding an extra artificial noise. We shall investigate the impact of the wireless noise on convergence performance of the proposed framework. We will also show that by updating only one of the low-rank matrices in the split FedFT with DP, the proposed method can mitigate the noise amplification effect. Simulation results will demonstrate that the proposed framework achieves higher accuracy under strict privacy budgets compared to baseline methods.