Subspace Representation Learning for Sparse Linear Arrays to Localize More Sources than Sensors: A Deep Learning Methodology

要約

スパース線形アレイ (SLA) を使用してセンサーよりも多くのソースを位置特定するには、長い間 2 つの共分散行列間の距離を最小化することに依存しており、最近のアルゴリズムでは半定値計画法 (SDP) が利用されることがよくあります。
ディープ ニューラル ネットワーク (DNN) ベースの手法は新しい代替手段を提供しますが、依然として共分散行列のフィッティングに依存しています。
この論文では、SLA のサンプル共分散から共配列部分空間を推定する新しい方法論を開発します。
私たちの方法論は、基底の選択に対して不変である信号とノイズの部分空間表現を学習するように DNN をトレーニングします。
このような表現を学習するために、望ましい部分空間と推定された部分空間の間の分離を測定する損失関数を提案します。
特に、グラスマン関数の和集合上で見た部分空間間の最短経路の長さを測定する損失を提案し、DNN が信号部分空間を近似できることを証明します。
異なる次元の学習部分空間の計算は、一貫したランク サンプリングと呼ばれる新しいバッチ サンプリング戦略によって高速化されます。
この方法論は、ジオメトリに依存せずデータ駆動型であるため、配列の不完全性に対して堅牢です。
さらに、部分空間法をバイパスする可能性を研究するために角度を直接学習する完全なエンドツーエンドのグリッドレス アプローチを提案します。
数値結果は、そのような部分空間表現を学習することは、共分散や角度を学習するよりも有益であることを示しています。
スパース・パラメトリック・アプローチ(SPA)や既存のDNNベースの共分散再構成法などの従来のSDPベースの手法よりも、広範囲の信号対雑音比(SNR)、スナップショット、完全および不完全の両方のソース番号に対して優れた性能を発揮します。
配列。

要約(オリジナル)

Localizing more sources than sensors with a sparse linear array (SLA) has long relied on minimizing a distance between two covariance matrices and recent algorithms often utilize semidefinite programming (SDP). Although deep neural network (DNN)-based methods offer new alternatives, they still depend on covariance matrix fitting. In this paper, we develop a novel methodology that estimates the co-array subspaces from a sample covariance for SLAs. Our methodology trains a DNN to learn signal and noise subspace representations that are invariant to the selection of bases. To learn such representations, we propose loss functions that gauge the separation between the desired and the estimated subspace. In particular, we propose losses that measure the length of the shortest path between subspaces viewed on a union of Grassmannians, and prove that it is possible for a DNN to approximate signal subspaces. The computation of learning subspaces of different dimensions is accelerated by a new batch sampling strategy called consistent rank sampling. The methodology is robust to array imperfections due to its geometry-agnostic and data-driven nature. In addition, we propose a fully end-to-end gridless approach that directly learns angles to study the possibility of bypassing subspace methods. Numerical results show that learning such subspace representations is more beneficial than learning covariances or angles. It outperforms conventional SDP-based methods such as the sparse and parametric approach (SPA) and existing DNN-based covariance reconstruction methods for a wide range of signal-to-noise ratios (SNRs), snapshots, and source numbers for both perfect and imperfect arrays.

arxiv情報

著者 Kuan-Lin Chen,Bhaskar D. Rao
発行日 2024-08-29 15:14:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク