Location Is All You Need: Continuous Spatiotemporal Neural Representations of Earth Observation Data

📄 arXiv: 2604.07092v1 📥 PDF

作者: Mojgan Madadikhaljan, Jonathan Prexl, Isabelle Wittmann, Conrad M Albrecht, Michael Schmitt

分类: cs.CV

发布日期: 2026-04-08

🔗 代码/项目: GITHUB


💡 一句话要点

提出LIANet:一种基于坐标的地球观测数据时空神经表示方法

🎯 匹配领域: 支柱八:物理动画 (Physics-based Animation) 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 地球观测 时空神经表示 坐标网络 遥感图像 地理空间基础模型

📋 核心要点

  1. 现有地球观测数据应用面临数据获取和预处理的挑战,阻碍了用户便捷地利用卫星数据。
  2. LIANet通过坐标神经网络将地球观测数据建模为连续时空场,仅需坐标即可重建卫星图像。
  3. 实验表明,LIANet预训练后,在下游任务微调中表现出与现有方法相当甚至更优的性能。

📝 摘要(中文)

本文提出了一种名为LIANet(Location Is All You Need Network)的坐标神经网络表示方法,该方法将给定感兴趣区域的多时相星载地球观测(EO)数据建模为连续的时空神经场。LIANet仅使用空间和时间坐标即可重建相应的卫星图像。经过预训练后,这种神经表示可以适应各种EO下游任务,例如语义分割或像素级回归,重要的是,无需访问原始卫星数据。LIANet旨在通过消除终端用户的数据访问和预处理开销,并仅基于标签进行微调,从而成为地理空间基础模型(GFM)的友好替代方案。我们展示了LIANet在不同大小的目标区域上的预训练,并表明将其微调用于下游任务可实现与从头开始训练或使用已建立的GFM相比具有竞争力的性能。源代码和数据集可在https://github.com/mojganmadadi/LIANet/tree/v1.0.1公开获取。

🔬 方法详解

问题定义:现有的地球观测数据应用通常需要用户自行获取和预处理大量的卫星数据,这带来了巨大的时间和计算成本。此外,直接使用原始卫星数据进行下游任务训练也存在数据隐私和访问权限的问题。因此,如何提供一种用户友好的、无需直接访问原始数据即可进行地球观测任务的方法是一个重要的挑战。

核心思路:LIANet的核心思路是将地球观测数据表示为一个连续的时空神经场。通过学习一个从时空坐标到卫星图像像素值的映射函数,LIANet能够仅使用坐标信息即可重建出对应的卫星图像。这种表示方法避免了直接存储和处理原始卫星数据,从而降低了数据访问和预处理的成本。

技术框架:LIANet的整体框架包括预训练和微调两个阶段。在预训练阶段,LIANet学习从时空坐标到卫星图像像素值的映射。预训练完成后,LIANet可以被用于各种下游任务,例如语义分割或像素级回归。在微调阶段,LIANet的参数根据下游任务的标签数据进行调整,以适应特定的应用场景。整个流程无需访问原始卫星数据,仅需坐标和标签信息。

关键创新:LIANet的关键创新在于其基于坐标的神经表示方法。与传统的基于像素的图像表示方法不同,LIANet将图像表示为一个连续的函数,该函数可以根据任意时空坐标生成对应的像素值。这种表示方法具有更高的灵活性和泛化能力,并且可以有效地压缩地球观测数据。

关键设计:LIANet的网络结构通常采用多层感知机(MLP),输入为时空坐标,输出为对应的像素值。损失函数通常采用均方误差(MSE),用于衡量重建图像与真实图像之间的差异。在预训练阶段,可以使用大量的无标签卫星图像数据进行训练。在微调阶段,可以使用少量的标签数据进行训练。具体的网络结构和参数设置可以根据具体的应用场景进行调整。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文在不同大小的目标区域上进行了LIANet的预训练,并在下游任务(如语义分割)上进行了微调。实验结果表明,LIANet在下游任务上取得了与从头开始训练或使用现有地理空间基础模型(GFM)相当甚至更优的性能。这证明了LIANet作为一种用户友好的地球观测数据表示方法的有效性。

🎯 应用场景

LIANet可广泛应用于遥感图像处理、环境监测、城市规划、农业估产等领域。它降低了地球观测数据的使用门槛,使得用户无需关注底层数据获取和预处理,即可专注于下游任务的开发和应用。未来,LIANet有望成为地理空间基础模型的重要组成部分,推动地球观测技术的普及和发展。

📄 摘要(原文)

In this work, we present LIANet (Location Is All You Need Network), a coordinate-based neural representation that models multi-temporal spaceborne Earth observation (EO) data for a given region of interest as a continuous spatiotemporal neural field. Given only spatial and temporal coordinates, LIANet reconstructs the corresponding satellite imagery. Once pretrained, this neural representation can be adapted to various EO downstream tasks, such as semantic segmentation or pixel-wise regression, importantly, without requiring access to the original satellite data. LIANet intends to serve as a user-friendly alternative to Geospatial Foundation Models (GFMs) by eliminating the overhead of data access and preprocessing for end-users and enabling fine-tuning solely based on labels. We demonstrate the pretraining of LIANet across target areas of varying sizes and show that fine-tuning it for downstream tasks achieves competitive performance compared to training from scratch or using established GFMs. The source code and datasets are publicly available at https://github.com/mojganmadadi/LIANet/tree/v1.0.1.