Enhanced Multi-level Features for Very High Resolution Remote Sensing Scene Classification

要約

超高解像度 (VHR) リモート センシング (RS) シーンの分類は、クラス間の類似性が高く、クラス内の変動性の問題があるため、困難なタスクです。
最近、既存の深層学習 (DL) ベースの手法が VHR RS シーン分類において大きな期待を示しています。
ただし、依然として不安定な分類パフォーマンスが提供されます。
このような問題に対処するために、このレターでは、新しい DL ベースのアプローチを提案します。
このために、強化された VHR アテンション モジュール (EAM) を考案し、続いて Atrous 空間ピラミッド プーリング (ASPP) とグローバル平均プーリング (GAP) を考案します。
この手順により、対応するレベルから強化された機能が付与されます。
次に、マルチレベル特徴融合が実行されます。
2 つの広く使用されている VHR RS データセットに関する実験結果は、提案されたアプローチが最小標準偏差 0.001 で競争力のある安定した堅牢な分類パフォーマンスをもたらすことを示しています。
さらに、AID データセットと NWPU データセットの全体的な最高精度は、それぞれ 95.39% と 93.04% です。

要約(オリジナル)

Very high-resolution (VHR) remote sensing (RS) scene classification is a challenging task due to the higher inter-class similarity and intra-class variability problems. Recently, the existing deep learning (DL)-based methods have shown great promise in VHR RS scene classification. However, they still provide an unstable classification performance. To address such a problem, we, in this letter, propose a novel DL-based approach. For this, we devise an enhanced VHR attention module (EAM), followed by the atrous spatial pyramid pooling (ASPP) and global average pooling (GAP). This procedure imparts the enhanced features from the corresponding level. Then, the multi-level feature fusion is performed. Experimental results on two widely-used VHR RS datasets show that the proposed approach yields a competitive and stable/robust classification performance with the least standard deviation of 0.001. Further, the highest overall accuracies on the AID and the NWPU datasets are 95.39% and 93.04%, respectively.

arxiv情報

著者 Chiranjibi Sitaula,Sumesh KC,Jagannath Aryal
発行日 2023-07-11 10:46:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク