Setup Once, Secure Always: A Single-Setup Secure Federated Learning Aggregation Protocol with Forward and Backward Secrecy for Dynamic Users

📄 arXiv: 2502.08989v4 📥 PDF

作者: Nazatul Haque Sultan, Yan Bo, Yansong Gao, Seyit Camtepe, Arash Mahboubi, Hang Thanh Bui, Aufeef Chauhan, Hamed Aboutorab, Michael Bewong, Dineshkumar Singh, Praveen Gauravaram, Rafiqul Islam, Sharif Abuadbba

分类: cs.CR, cs.AI

发布日期: 2025-02-13 (更新: 2025-08-21)

备注: 17 pages, 12 Figures


💡 一句话要点

提出一种支持动态用户、具备前后向安全性的单次设置联邦学习安全聚合协议

🎯 匹配领域: 支柱五:交互与反应 (Interaction & Reaction)

关键词: 联邦学习 安全聚合 同态加密 隐私保护 动态用户 前后向安全性 消息认证码

📋 核心要点

  1. 现有单次设置安全聚合协议缺乏对动态用户参与的支持,且难以保证前向和后向安全性。
  2. 利用轻量级对称同态加密和密钥求反技术高效掩盖更新,无需用户间通信,实现动态用户参与和前后向安全性。
  3. 引入基于消息认证码(MAC)的低开销验证机制,防御模型不一致性攻击,实验表明用户侧计算量减少高达99%。

📝 摘要(中文)

联邦学习(FL)允许多个用户在不共享原始数据的情况下协作训练机器学习模型,使其适用于隐私敏感的应用。然而,本地模型或权重更新仍然可能泄露敏感信息。安全聚合协议通过确保只公开聚合后的更新来缓解这种风险。其中,单次设置协议由于减少了通信和计算开销而效率最高。然而,现有的单次设置协议通常缺乏对动态用户参与的支持,并且不能提供诸如前向和后向安全性等强大的隐私保证。本文提出了一种新颖的安全聚合协议,该协议仅需对整个FL训练进行一次设置。我们的协议支持动态用户参与,容忍掉线,并实现前向和后向安全性。它利用轻量级对称同态加密与密钥求反技术来高效地掩盖更新,无需用户之间的通信。为了防御模型不一致性攻击,我们引入了一种使用消息认证码(MAC)的低开销验证机制。我们提供了在半诚实和恶意对抗模型下的形式化安全证明,并实现了一个完整的原型。实验结果表明,与最先进的协议(如e-SeaFL (ACSAC'24))相比,我们的协议将用户侧的计算量减少了高达99%,同时保持了具有竞争力的模型精度。这些特性使我们的协议非常适合实际的FL部署,尤其是在资源受限的设备上。

🔬 方法详解

问题定义:论文旨在解决联邦学习中,现有单次设置安全聚合协议无法同时支持动态用户参与、提供前后向安全性,以及防御模型不一致性攻击的问题。现有方法的痛点在于,要么需要频繁的密钥交换,要么无法抵抗恶意用户的攻击,或者计算开销过大,不适用于资源受限的设备。

核心思路:论文的核心思路是利用轻量级对称同态加密和密钥求反技术,在单次设置的前提下,实现对本地模型更新的高效掩盖,从而保护用户隐私。同时,通过引入消息认证码(MAC)进行验证,确保聚合结果的正确性,防止恶意用户篡改模型。这种设计避免了用户间的直接通信,降低了计算复杂度,并增强了安全性。

技术框架:该安全聚合协议主要包含以下几个阶段:1) 初始化阶段:服务器进行一次性的密钥生成和分发。2) 本地更新阶段:用户使用本地数据训练模型,并使用同态加密对更新进行加密。3) 聚合阶段:服务器对加密后的更新进行聚合。4) 解密和验证阶段:服务器解密聚合后的结果,并使用MAC进行验证,确保结果的正确性。5) 模型更新阶段:服务器使用聚合后的更新来更新全局模型。整个流程无需用户间的直接通信,降低了通信开销。

关键创新:该论文的关键创新在于:1) 提出了一种基于轻量级对称同态加密和密钥求反技术的安全聚合方案,实现了高效的隐私保护。2) 设计了一种低开销的MAC验证机制,有效防御了模型不一致性攻击。3) 该协议支持动态用户参与和容忍掉线,使其更适用于实际的联邦学习场景。4) 实现了前向和后向安全性,即使部分密钥泄露,也能保证历史和未来的数据安全。

关键设计:在同态加密方面,论文选择了一种轻量级的对称同态加密算法,以降低计算开销。密钥求反技术用于进一步增强安全性,防止密钥泄露。MAC验证机制采用了一种高效的哈希函数,以降低验证开销。此外,协议还设计了相应的机制来处理用户掉线的情况,确保聚合过程的顺利进行。具体的参数设置和密钥长度需要根据实际的安全需求进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,该协议在保证模型精度的前提下,显著降低了用户侧的计算开销。与最先进的e-SeaFL协议相比,用户侧的计算量减少了高达99%。此外,该协议还具有良好的可扩展性,能够支持大规模的联邦学习训练。这些优势使得该协议更适用于资源受限的设备,例如移动设备和物联网设备。

🎯 应用场景

该研究成果可广泛应用于隐私敏感的联邦学习场景,例如医疗健康、金融风控、自动驾驶等领域。在这些场景中,数据分散在不同的机构或设备上,无法直接共享,但又需要协作训练模型。该协议能够保证用户数据的隐私安全,同时实现高效的模型训练,具有重要的实际应用价值和广阔的应用前景。

📄 摘要(原文)

Federated Learning (FL) enables multiple users to collaboratively train a machine learning model without sharing raw data, making it suitable for privacy-sensitive applications. However, local model or weight updates can still leak sensitive information. Secure aggregation protocols mitigate this risk by ensuring that only the aggregated updates are revealed. Among these, single-setup protocols, where key generation and exchange occur only once, are the most efficient due to reduced communication and computation overhead. However, existing single-setup protocols often lack support for dynamic user participation and do not provide strong privacy guarantees such as forward and backward secrecy. \par In this paper, we present a novel secure aggregation protocol that requires only a single setup for the entire FL training. Our protocol supports dynamic user participation, tolerates dropouts, and achieves both forward and backward secrecy. It leverages lightweight symmetric homomorphic encryption with a key negation technique to mask updates efficiently, eliminating the need for user-to-user communication. To defend against model inconsistency attacks, we introduce a low-overhead verification mechanism using message authentication codes (MACs). We provide formal security proofs under both semi-honest and malicious adversarial models and implement a full prototype. Experimental results show that our protocol reduces user-side computation by up to $99\%$ compared to state-of-the-art protocols like e-SeaFL (ACSAC'24), while maintaining competitive model accuracy. These features make our protocol highly practical for real-world FL deployments, especially on resource-constrained devices.