Semi-Supervised SAR ATR Framework with Transductive Auxiliary Segmentation

要約

畳み込みニューラル ネットワーク (CNN) は、合成開口レーダー (SAR) の自動目標認識 (ATR) で高いパフォーマンスを達成しました。
ただし、CNN のパフォーマンスは大量のトレーニング データに大きく依存します。
ラベル付きトレーニング SAR 画像が不十分であると、認識パフォーマンスが制限され、一部の ATR 手法が無効になることさえあります。
さらに、ラベル付きトレーニング データがほとんどない場合、既存の CNN の多くは効果すらありません。
これらの課題に対処するために、トランスダクティブ補助セグメンテーション (SFAS) を備えた半教師あり SAR ATR フレームワークを提案します。
提案されたフレームワークは、正則化器として機能する補助損失を使用して、利用可能なラベルなしサンプルに対する変換的一般化を利用することに焦点を当てています。
トレーニングにおけるラベルのない SAR サンプルと情報残差損失 (IRL) の補助セグメンテーションを通じて、フレームワークは提案されたトレーニング ループ プロセスを採用し、認識とセグメンテーションの情報編集を段階的に活用して、有用な誘導バイアスを構築し、高いパフォーマンスを達成できます。
MSTAR データセットに対して行われた実験により、私たちが提案した SFAS が少数ショット学習に有効であることが示されました。
94.18\% の認識パフォーマンスは、各クラスの 20 トレーニング サンプルの下で達成でき、同時に正確なセグメンテーション結果が得られます。
EOC の分散に直面しても、各クラス 10 個のトレーニング サンプルの場合、認識率は 88.00% より高くなります。

要約(オリジナル)

Convolutional neural networks (CNNs) have achieved high performance in synthetic aperture radar (SAR) automatic target recognition (ATR). However, the performance of CNNs depends heavily on a large amount of training data. The insufficiency of labeled training SAR images limits the recognition performance and even invalidates some ATR methods. Furthermore, under few labeled training data, many existing CNNs are even ineffective. To address these challenges, we propose a Semi-supervised SAR ATR Framework with transductive Auxiliary Segmentation (SFAS). The proposed framework focuses on exploiting the transductive generalization on available unlabeled samples with an auxiliary loss serving as a regularizer. Through auxiliary segmentation of unlabeled SAR samples and information residue loss (IRL) in training, the framework can employ the proposed training loop process and gradually exploit the information compilation of recognition and segmentation to construct a helpful inductive bias and achieve high performance. Experiments conducted on the MSTAR dataset have shown the effectiveness of our proposed SFAS for few-shot learning. The recognition performance of 94.18\% can be achieved under 20 training samples in each class with simultaneous accurate segmentation results. Facing variances of EOCs, the recognition ratios are higher than 88.00\% when 10 training samples each class.

arxiv情報

著者 Chenwei Wang,Xiaoyu Liu,Yulin Huang,Siyi Luo,Jifang Pei,Jianyu Yang,Deqing Mao
発行日 2023-08-31 11:00:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク