Hierarchical Disentanglement-Alignment Network for Robust SAR Vehicle Recognition

要約

タイトル:堅牢なSAR車両認識のための階層的なDisentanglement-Alignmentネットワーク

要約:
– SAR(合成開口レーダー)画像特性のため、SAR車両認識は、小規模なデータセットから識別的で堅牢なターゲット特徴を抽出する問題があります。
– 深層学習はMSTARデータセットで驚異的な性能を発揮しましたが、背景相関などの小規模なデータセットのデータバイアスがこれらの手法の因果関係を損ないます。
– さらに、SARの異なる運用条件により、イメージング結果のターゲットの署名と背景のクラッタ変動が生じますが、多くの深層学習ベースの手法では、現在の実験設定でターゲットまたは背景の変化の堅牢性のみを検証しています。
– 本論文では、Hierarchical Disentanglement-Alignment Network(HDANet)と呼ばれる新しいドメインアラインメントフレームワークを提案して、特徴の因果関係と堅牢性を高めます。
– HDANetは、データ拡張を使用して署名の変化を生成するために3つの部分から構成されます。
– 第1部は、ドメインアラインメントのために署名の変化を生成するためにデータ拡張を使用します。
– 第2部は、非因果的なクラッタが後続のアラインメントと認識に干渉するのを防ぐためにマルチタスクアシストマスクを介してターゲット特徴を分離します。
– 第3に、コントラスティブロスがドメインアラインメントのために用いられ、堅牢なターゲット特徴が抽出され、SimSiam構造がコントラスティブロスと特徴の識別性との衝突を軽減するために適用されます。
– 提案手法は、MSTARの多様なターゲット、センサー、環境変種にわたって高い堅牢性を示します。
– 本研究では、新しいシーン変種を追加して、ターゲットと背景の変化の堅牢性を検証しました。
– さらに、造形的、数量的に因果関係を示す視覚マップとShapley価値が存在します。
– 最後に、提案手法のコードは、\url{https://github.com/waterdisappear/SAR-ATR-HDANet}で入手可能です。

要約(オリジナル)

Due to Synthetic Aperture Radar (SAR) imaging characteristics, SAR vehicle recognition faces the problem of extracting discriminative and robust target features from a small dataset. Deep learning has shown impressive performance on the MSTAR dataset. However, data bias in a small dataset, such as background correlation, impairs the causality of these methods, i.e., discriminative features contain target and background differences. Moreover, different operating conditions of SAR lead to target signatures and background clutter variations in imaging results. However, many deep learning-based methods only verify robustness to target or background variations in the current experimental setting. In this paper, we propose a novel domain alignment framework named Hierarchical Disentanglement-Alignment Network (HDANet) to enhance features’ causality and robustness. Concisely, HDANet consists of three parts: The first part uses data augmentation to generate signature variations for domain alignment. The second part disentangles the target features through a multitask-assisted mask to prevent non-causal clutter from interfering with subsequent alignment and recognition. Thirdly, a contrastive loss is employed for domain alignment to extract robust target features, and the SimSiam structure is applied to mitigate conflicts between contrastive loss and feature discrimination. Finally, the proposed method shows high robustness across MSTAR’s multiple target, sensor, and environment variants. Noteworthy, we add a new scene variant to verify the robustness to target and background variations. Moreover, the saliency map and Shapley value qualitatively and quantitatively demonstrate causality. Our code is available in \url{https://github.com/waterdisappear/SAR-ATR-HDANet}.

arxiv情報

著者 Weijie Li,Wei Yang,Li Li,Wenpeng Zhang,Yongxiang Liu
発行日 2023-04-07 09:11:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク