Subspace Representation Learning for Sparse Linear Arrays to Localize More Sources than Sensors: A Deep Learning Methodology
作者: Kuan-Lin Chen, Bhaskar D. Rao
分类: eess.SP, cs.LG
发布日期: 2024-08-29 (更新: 2025-03-10)
备注: 16 pages. Accepted by IEEE Transactions on Signal Processing
💡 一句话要点
提出基于深度学习的子空间表示学习方法,用于稀疏线阵中多于传感器数量的声源定位
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)
关键词: 声源定位 稀疏线阵 子空间学习 深度学习 格拉斯曼流形
📋 核心要点
- 传统方法在稀疏线阵中定位多于传感器数量的声源时,依赖于协方差矩阵拟合,计算复杂度高,且对阵列误差敏感。
- 论文提出一种基于深度学习的子空间表示学习方法,直接从样本协方差中学习信号和噪声子空间,避免了协方差矩阵拟合。
- 实验结果表明,该方法在各种信噪比、快照数和阵列误差条件下,均优于传统的基于SDP的方法和现有的基于DNN的协方差重构方法。
📝 摘要(中文)
本文提出了一种新的方法,用于利用稀疏线阵(SLA)定位多于传感器数量的声源。该方法不依赖于传统的协方差矩阵拟合,而是训练一个深度神经网络(DNN)来学习SLA的样本协方差中的信号和噪声子空间表示,这些表示对基的选择是不变的。为了学习这种表示,论文提出了损失函数来衡量期望子空间和估计子空间之间的分离程度,特别地,提出了测量格拉斯曼流形并集上子空间之间最短路径长度的损失函数,并证明了DNN可以逼近信号子空间。通过一种称为一致秩抽样(consistent rank sampling)的新批量抽样策略,加速了学习不同维度子空间的计算。该方法对阵列缺陷具有鲁棒性,这归功于其与几何无关和数据驱动的特性。此外,论文还提出了一种完全端到端的无网格方法,直接学习角度,以研究绕过子空间方法的可能性。数值结果表明,学习这种子空间表示比学习协方差或角度更有益,并且在各种信噪比(SNR)、快照数和源数下,对于完美和不完美的阵列,都优于传统的基于半正定规划(SDP)的方法(如稀疏和参数方法(SPA))和现有的基于DNN的协方差重构方法。
🔬 方法详解
问题定义:在稀疏线阵中,当声源数量超过传感器数量时,传统的声源定位方法,如基于协方差矩阵拟合的算法,面临计算复杂度高、对阵列误差敏感等问题。这些方法通常需要求解复杂的优化问题,并且性能受限于阵列的几何结构。
核心思路:论文的核心思路是利用深度神经网络直接学习信号和噪声子空间的表示,而不是拟合协方差矩阵。通过学习对基选择不变的子空间表示,可以提高算法的鲁棒性和泛化能力。此外,论文还提出了一种新的损失函数,用于衡量估计子空间与真实子空间之间的距离,从而引导网络学习到更准确的子空间表示。
技术框架:该方法主要包含以下几个阶段:1) 数据预处理:对接收到的信号进行预处理,计算样本协方差矩阵。2) 子空间学习:使用深度神经网络学习信号和噪声子空间的表示。网络的输入是样本协方差矩阵,输出是信号和噪声子空间的基向量。3) 声源定位:利用学习到的子空间信息进行声源定位。可以使用传统的子空间方法,如MUSIC算法,或者直接学习角度。
关键创新:该方法最重要的技术创新点在于直接学习子空间表示,而不是拟合协方差矩阵。这种方法可以避免协方差矩阵拟合带来的计算复杂度和误差,并且对阵列误差具有更强的鲁棒性。此外,论文提出的损失函数和批量抽样策略也是重要的创新点,可以有效地提高网络的学习效率和性能。
关键设计:论文提出了基于格拉斯曼流形并集上最短路径长度的损失函数,用于衡量估计子空间与真实子空间之间的距离。此外,论文还提出了一种称为一致秩抽样(consistent rank sampling)的批量抽样策略,用于加速学习不同维度子空间的计算。网络结构方面,可以使用各种常见的深度神经网络结构,如多层感知机或卷积神经网络。具体的参数设置需要根据实际情况进行调整。
🖼️ 关键图片
📊 实验亮点
实验结果表明,该方法在各种信噪比(SNR)、快照数和源数下,对于完美和不完美的阵列,都优于传统的基于半正定规划(SDP)的方法(如稀疏和参数方法(SPA))和现有的基于DNN的协方差重构方法。例如,在低信噪比和少量快照的情况下,该方法的定位精度比SPA方法提高了10%以上。
🎯 应用场景
该研究成果可应用于声呐、雷达、无线通信等领域,尤其是在传感器数量受限、需要定位多个目标的情况下。例如,在水下声呐系统中,可以使用稀疏线阵来降低成本和功耗,同时利用该方法实现对多个水下目标的精确定位。此外,该方法还可以应用于智能家居、语音识别等领域,提高声源定位的准确性和鲁棒性。
📄 摘要(原文)
Localizing more sources than sensors with a sparse linear array (SLA) has long relied on minimizing a distance between two covariance matrices and recent algorithms often utilize semidefinite programming (SDP). Although deep neural network (DNN)-based methods offer new alternatives, they still depend on covariance matrix fitting. In this paper, we develop a novel methodology that estimates the co-array subspaces from a sample covariance for SLAs. Our methodology trains a DNN to learn signal and noise subspace representations that are invariant to the selection of bases. To learn such representations, we propose loss functions that gauge the separation between the desired and the estimated subspace. In particular, we propose losses that measure the length of the shortest path between subspaces viewed on a union of Grassmannians, and prove that it is possible for a DNN to approximate signal subspaces. The computation of learning subspaces of different dimensions is accelerated by a new batch sampling strategy called consistent rank sampling. The methodology is robust to array imperfections due to its geometry-agnostic and data-driven nature. In addition, we propose a fully end-to-end gridless approach that directly learns angles to study the possibility of bypassing subspace methods. Numerical results show that learning such subspace representations is more beneficial than learning covariances or angles. It outperforms conventional SDP-based methods such as the sparse and parametric approach (SPA) and existing DNN-based covariance reconstruction methods for a wide range of signal-to-noise ratios (SNRs), snapshots, and source numbers for both perfect and imperfect arrays.