Excavating RoI Attention for Underwater Object Detection

要約

自己注意は、ディープラーニングで最も成功した設計の1つであり、さまざまなトークンの類似性を計算し、注意マトリックスに基づいて特徴を再構築します。
もともとNLP用に設計された自己注意は、コンピュータービジョンでも人気があり、ピクセルレベルの注意とパッチレベルの注意に分類できます。
オブジェクト検出では、RoI機能は基本機能マップからのパッチと見なすことができます。
このホワイトペーパーでは、アテンションモジュールをRoI機能に適用してパフォーマンスを向上させることを目的としています。
オリジナルの自己注意モジュールを採用する代わりに、外部注意モジュールを選択します。これは、パラメーターを減らした修正された自己注意です。
提案されたダブルヘッド構造とPositionalEncodingモジュールを使用して、私たちの方法はオブジェクト検出で有望なパフォーマンスを達成できます。
包括的な実験は、特に水中物体検出データセットで有望なパフォーマンスを達成することを示しています。
コードは次の場所で入手できます:https://github.com/zsyasd/Excavating-RoI-Attention-for-Underwater-Object-Detection

要約(オリジナル)

Self-attention is one of the most successful designs in deep learning, which calculates the similarity of different tokens and reconstructs the feature based on the attention matrix. Originally designed for NLP, self-attention is also popular in computer vision, and can be categorized into pixel-level attention and patch-level attention. In object detection, RoI features can be seen as patches from base feature maps. This paper aims to apply the attention module to RoI features to improve performance. Instead of employing an original self-attention module, we choose the external attention module, a modified self-attention with reduced parameters. With the proposed double head structure and the Positional Encoding module, our method can achieve promising performance in object detection. The comprehensive experiments show that it achieves promising performance, especially in the underwater object detection dataset. The code will be avaiable in: https://github.com/zsyasd/Excavating-RoI-Attention-for-Underwater-Object-Detection

arxiv情報

著者 Xutao Liang,Pinhao Song
発行日 2022-06-24 07:45:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク