Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices

📄 arXiv: 2601.04912v1 📥 PDF

作者: Damian Harenčák, Lukáš Gajdošech, Martin Madaras

分类: cs.CR, cs.CV

发布日期: 2026-01-08

备注: Accepted to VISAPP 2026 as Position Paper


💡 一句话要点

研究边缘设备上计算机视觉模型的去中心化隐私保护联邦学习方法

🎯 匹配领域: 支柱五:交互与反应 (Interaction & Reaction)

关键词: 联邦学习 隐私保护 边缘计算 计算机视觉 梯度压缩

📋 核心要点

  1. 联邦学习在保护数据隐私方面有优势,但模型参数的共享仍然存在隐私泄露风险,尤其是在恶意客户端存在的情况下。
  2. 本文研究了多种隐私保护技术,包括同态加密、梯度压缩、梯度加噪等,并探讨了它们在联邦学习中的应用。
  3. 实验分析了梯度压缩和梯度加噪对卷积神经网络精度的影响,并验证了分割网络中数据重构的难度,同时在边缘设备上进行了概念验证。

📝 摘要(中文)

机器学习模型的协同训练面临着共享敏感或隐私数据的风险。联邦学习通过仅共享每个客户端本地模型的更新参数,而无需共享客户端数据,提供了一种集体训练单个全局模型的方法。中央服务器用于聚合来自所有客户端的参数,并将聚合后的模型重新分发给客户端。然而,即使在这种情况下,仅使用模型参数信息也能重构私有数据。目前缓解这一问题的努力主要集中在降低服务器端的隐私风险,假设其他客户端不会恶意行事。本文分析了针对神经网络,在服务器和其他客户端方面,提高客户端数据隐私的各种方法,包括同态加密、梯度压缩、梯度加噪,以及对诸如拆分学习、群体学习或完全加密模型等改进的联邦学习系统的可能用法的讨论。我们分析了梯度压缩和梯度加噪对用于分类的卷积神经网络精度的负面影响。我们展示了分割网络中数据重构的难度。我们还在边缘设备中使用的NVIDIA Jetson TX2模块上实现了一个概念验证,并模拟了联邦学习过程。

🔬 方法详解

问题定义:联邦学习虽然避免了直接共享原始数据,但共享的模型参数仍然可能泄露客户端的隐私信息,尤其是在存在恶意客户端的情况下。现有的隐私保护方法主要集中在服务器端,忽略了客户端之间的潜在威胁。因此,如何有效地保护客户端数据,使其免受来自服务器和其他客户端的攻击,是一个重要的研究问题。

核心思路:本文的核心思路是研究和分析多种隐私保护技术,并将它们应用于联邦学习框架中,以提高客户端数据的隐私性。通过对这些技术的有效性和性能进行评估,为在边缘设备上部署隐私保护的联邦学习系统提供指导。

技术框架:本文研究的联邦学习框架主要包含以下几个阶段:1)客户端本地模型训练:每个客户端使用本地数据训练自己的模型。2)参数更新:客户端将更新后的模型参数发送到服务器。3)参数聚合:服务器聚合来自所有客户端的参数,生成全局模型。4)模型分发:服务器将全局模型分发回客户端。在此框架中,本文重点研究了在参数更新和聚合阶段应用隐私保护技术,例如梯度压缩、梯度加噪和同态加密。

关键创新:本文的创新点在于:1)对多种隐私保护技术在联邦学习中的应用进行了全面的分析和评估,包括它们对模型精度和计算性能的影响。2)研究了分割网络中数据重构的难度,为选择合适的隐私保护技术提供了依据。3)在边缘设备上进行了概念验证,验证了所提出的方法的实际可行性。

关键设计:本文的关键设计包括:1)梯度压缩:通过减少梯度的大小来降低通信成本和隐私泄露风险。2)梯度加噪:通过向梯度添加噪声来模糊客户端的真实更新,从而保护隐私。3)同态加密:允许服务器在不解密的情况下对加密的梯度进行聚合,从而实现更强的隐私保护。此外,本文还讨论了拆分学习、群体学习和完全加密模型等更高级的联邦学习系统。

📊 实验亮点

论文分析了梯度压缩和梯度加噪对卷积神经网络精度的影响,并展示了分割网络中数据重构的难度。此外,还在NVIDIA Jetson TX2边缘设备上进行了概念验证,模拟了联邦学习过程,验证了所提出方法的实际可行性。虽然论文中没有给出具体的性能数据和提升幅度,但这些实验结果为在边缘设备上部署隐私保护的联邦学习系统提供了有价值的参考。

🎯 应用场景

该研究成果可应用于各种需要保护用户隐私的计算机视觉任务,例如智能医疗、自动驾驶、智能监控等。通过在边缘设备上部署隐私保护的联邦学习系统,可以在不泄露用户数据的前提下,实现模型的协同训练和性能提升,从而推动人工智能技术在各个领域的应用。

📄 摘要(原文)

Collaborative training of a machine learning model comes with a risk of sharing sensitive or private data. Federated learning offers a way of collectively training a single global model without the need to share client data, by sharing only the updated parameters from each client's local model. A central server is then used to aggregate parameters from all clients and redistribute the aggregated model back to the clients. Recent findings have shown that even in this scenario, private data can be reconstructed only using information about model parameters. Current efforts to mitigate this are mainly focused on reducing privacy risks on the server side, assuming that other clients will not act maliciously. In this work, we analyzed various methods for improving the privacy of client data concerning both the server and other clients for neural networks. Some of these methods include homomorphic encryption, gradient compression, gradient noising, and discussion on possible usage of modified federated learning systems such as split learning, swarm learning or fully encrypted models. We have analyzed the negative effects of gradient compression and gradient noising on the accuracy of convolutional neural networks used for classification. We have shown the difficulty of data reconstruction in the case of segmentation networks. We have also implemented a proof of concept on the NVIDIA Jetson TX2 module used in edge devices and simulated a federated learning process.