Hierarchical Disentanglement-Alignment Network for Robust SAR Vehicle Recognition

要約

車両認識は、SAR 画像解釈における基本的な問題です。
ただし、SAR ではクラス内変動が大きく、クラス間変動が小さいため、車両ターゲットを確実に認識することは困難なタスクです。
さらに、大規模なデータセットが不足しているため、タスクはさらに複雑になります。
この論文は、ターゲット シグネチャの変動と深層学習の説明可能性の分析に触発され、さまざまな動作条件下で堅牢性を実現するための、Hierarchical Disentanglement-Alignment Network (HDANet) と呼ばれる新しいドメイン アライメント フレームワークを提案します。
簡潔に言うと、HDANet は、ドメイン データ生成、マルチタスク支援マスクのもつれ解除、ターゲット フィーチャのドメイン アライメントの 3 つのモジュールを備えた統合フレームワークに、フィーチャのもつれ解除とアライメントを統合します。
最初のモジュールはアライメント用の多様なデータを生成し、ターゲット シグネチャの変動をシミュレートするために 3 つのシンプルだが効果的なデータ拡張方法が設計されています。
2 番目のモジュールは、マルチタスク支援マスクを使用してターゲット フィーチャを背景のクラッターから解きほぐし、クラッターが後続の位置合わせに干渉するのを防ぎます。
3 番目のモジュールは、ドメイン アライメントに対比損失を使用して、生成された多様なデータともつれの解けた特徴から堅牢なターゲット特徴を抽出します。
最後に、提案された方法は、MSTAR データセットの 9 つの動作条件にわたって優れた堅牢性を実証し、広範な定性的および定量的分析によってフレームワークの有効性が検証されます。

要約(オリジナル)

Vehicle recognition is a fundamental problem in SAR image interpretation. However, robustly recognizing vehicle targets is a challenging task in SAR due to the large intraclass variations and small interclass variations. Additionally, the lack of large datasets further complicates the task. Inspired by the analysis of target signature variations and deep learning explainability, this paper proposes a novel domain alignment framework named the Hierarchical Disentanglement-Alignment Network (HDANet) to achieve robustness under various operating conditions. Concisely, HDANet integrates feature disentanglement and alignment into a unified framework with three modules: domain data generation, multitask-assisted mask disentanglement, and domain alignment of target features. The first module generates diverse data for alignment, and three simple but effective data augmentation methods are designed to simulate target signature variations. The second module disentangles the target features from background clutter using the multitask-assisted mask to prevent clutter from interfering with subsequent alignment. The third module employs a contrastive loss for domain alignment to extract robust target features from generated diverse data and disentangled features. Lastly, the proposed method demonstrates impressive robustness across nine operating conditions in the MSTAR dataset, and extensive qualitative and quantitative analyses validate the effectiveness of our framework.

arxiv情報

著者 Weijie Li,Wei Yang,Wenpeng Zhang,Tianpeng Liu,Yongxiang Liu,Li Liu
発行日 2023-10-13 13:38:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク