Towards Privacy-preserved Pre-training of Remote Sensing Foundation Models with Federated Mutual-guidance Learning

📄 arXiv: 2503.11051v1 📥 PDF

作者: Jieyi Tan, Chengwei Zhang, Bo Dang, Yansheng Li

分类: cs.CV

发布日期: 2025-03-14

备注: 13 pages, 5 figures, 7 tables


💡 一句话要点

提出FedSense框架,通过联邦互指导学习实现遥感基础模型的隐私保护预训练。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 联邦学习 遥感影像 隐私保护 互指导学习 基础模型

📋 核心要点

  1. 遥感基础模型预训练面临数据孤岛和隐私泄露问题,集中式训练难以兼顾性能与安全。
  2. FedSense框架通过联邦互指导学习,在不共享数据的前提下,协同训练遥感基础模型。
  3. 实验表明,FedSense在通信效率和下游任务性能上均有显著提升,验证了其有效性。

📝 摘要(中文)

传统遥感基础模型(RSFMs)通常采用数据中心化的范式进行预训练,即通过大规模遥感数据上的自监督学习。然而,对于每个机构而言,单独使用有限的数据预训练RSFMs可能导致次优性能,而聚合来自多个机构的遥感数据进行集中式预训练又会引发隐私问题。合作是一种有前景的解决方案,多个机构可以在不共享私有数据的情况下协同训练RSFMs。本文提出了一种新的隐私保护预训练框架(FedSense),允许多个机构在不共享私有数据的情况下协同训练RSFMs。然而,由于遥感数据异质性导致的模型漂移和高通信开销,这是一个具有挑战性的任务,会陷入恶性循环。为了打破这个恶性循环,我们引入了联邦互指导学习。具体来说,我们提出了一种服务器到客户端的指导(SCG)机制,以指导客户端更新朝着全局平坦最优解的方向发展。此外,我们提出了一种客户端到服务器的指导(CSG)机制,通过低比特通信将本地知识注入到服务器中。在四个下游任务上的大量实验表明,我们的FedSense在全精度和通信减少的场景中都有效,展示了卓越的通信效率和性能提升。

🔬 方法详解

问题定义:遥感基础模型(RSFMs)的预训练通常需要大量数据,但各个机构的数据有限且存在隐私问题,无法直接共享。现有方法在数据孤岛上独立训练模型,性能往往受限。因此,如何在保护数据隐私的前提下,利用多方数据协同训练高性能的RSFMs是一个关键问题。

核心思路:FedSense的核心思路是联邦互指导学习,即通过服务器和客户端之间的双向指导,打破模型漂移的恶性循环。服务器向客户端提供全局平坦最优解的指导,客户端则通过低比特通信将本地知识注入服务器,从而实现协同训练。

技术框架:FedSense框架主要包含服务器和多个客户端。每个客户端使用本地数据进行模型训练,并将更新后的模型参数发送给服务器。服务器聚合来自客户端的模型参数,并生成全局模型。为了实现互指导学习,框架引入了Server-to-Clients Guidance (SCG)和Clients-to-Server Guidance (CSG)两个机制。SCG机制指导客户端更新朝着全局平坦最优解的方向发展,CSG机制则通过低比特通信将本地知识注入到服务器中。

关键创新:FedSense的关键创新在于联邦互指导学习机制,它通过服务器和客户端之间的双向指导,有效地解决了联邦学习中的模型漂移问题,并提高了通信效率。与传统的联邦平均算法相比,FedSense能够更好地利用多方数据,训练出性能更优的RSFMs。

关键设计:SCG机制通过计算全局模型的梯度,并将其作为指导信号发送给客户端。客户端在更新模型参数时,会考虑全局模型的梯度信息,从而朝着全局平坦最优解的方向发展。CSG机制则通过量化客户端的本地知识,并将其编码成低比特向量发送给服务器。服务器通过聚合来自客户端的低比特向量,获取全局知识,并用于更新全局模型。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,FedSense在四个下游任务上均取得了显著的性能提升。例如,在土地利用分类任务中,FedSense相比于传统的联邦平均算法,精度提升了3%-5%。此外,FedSense还具有很高的通信效率,在通信量减少的情况下,仍然能够保持良好的性能。这些结果表明,FedSense是一种有效的隐私保护遥感基础模型预训练方法。

🎯 应用场景

FedSense框架可应用于多个遥感领域,例如土地利用分类、灾害监测、环境评估等。通过该框架,不同机构可以在保护数据隐私的前提下,协同训练高性能的遥感基础模型,从而提高遥感应用的精度和效率,为相关领域的决策提供更可靠的支持。未来,该框架还可以扩展到其他领域,例如医学影像分析、自然语言处理等。

📄 摘要(原文)

Traditional Remote Sensing Foundation models (RSFMs) are pre-trained with a data-centralized paradigm, through self-supervision on large-scale curated remote sensing data. For each institution, however, pre-training RSFMs with limited data in a standalone manner may lead to suboptimal performance, while aggregating remote sensing data from multiple institutions for centralized pre-training raises privacy concerns. Seeking for collaboration is a promising solution to resolve this dilemma, where multiple institutions can collaboratively train RSFMs without sharing private data. In this paper, we propose a novel privacy-preserved pre-training framework (FedSense), which enables multiple institutions to collaboratively train RSFMs without sharing private data. However, it is a non-trivial task hindered by a vicious cycle, which results from model drift by remote sensing data heterogeneity and high communication overhead. To break this vicious cycle, we introduce Federated Mutual-guidance Learning. Specifically, we propose a Server-to-Clients Guidance (SCG) mechanism to guide clients updates towards global-flatness optimal solutions. Additionally, we propose a Clients-to-Server Guidance (CSG) mechanism to inject local knowledge into the server by low-bit communication. Extensive experiments on four downstream tasks demonstrate the effectiveness of our FedSense in both full-precision and communication-reduced scenarios, showcasing remarkable communication efficiency and performance gains.