RFAConv: Innovating Spatital Attention and Standard Convolutional Operation

要約

タイトル:RFAConv:空間的な注意と標準的な畳み込み操作の革新

要約:
– 空間的な注意は、畳み込みニューラルネットワークが重要な情報に焦点を当ててネットワークのパフォーマンスを改善することを可能にすることが示されていますが、まだ限界があります。
– この論文では、新しい観点から空間的な注意の有効性を説明します。それは、空間的な注意機構が本質的に畳み込みカーネルのパラメータ共有の問題を解決することなのです。
– しかし、空間的な注意によって生成された注目マップに含まれる情報は、大きなサイズの畳み込みカーネルに対してはまだ不十分です。そこで、私たちはReceptive-Field Attention(RFA)と呼ばれる新しい注意メカニズムを提案しています。
– Convolutional Block Attention Module(CBAM)やCoordinate Attention(CA)は空間的な特徴に焦点を当てたものであり、畳み込みカーネルのパラメータ共有の問題を完全に解決することができません。しかし、RFAでは、リセプティブフィールド空間特徴がフォーカスされ、大きなサイズの畳み込みカーネルに対して良い注意重みを提供します。
– RFAによって設計されたReceptive-Field Attention convolutional operation(RFAConv)は、標準畳み込みを置き換える新しい方法と見なすことができ、ほとんど無視できる計算コストとパラメータ数をもたらします。
– Imagenet-1k、MS COCO、VOCの多数の実験により、私たちのアプローチが分類、物体検出、セマンティックセグメンテーションタスクにおいて優れたパフォーマンスを発揮することが示されました。重要なことに、空間的特徴に焦点を当てる現在の一部の空間的な注意メカニズムを改善し、リセプティブフィールド空間特徴に焦点を当てることで、ネットワークのパフォーマンスを向上させることができると考えています。
– 関連するタスクのコードと事前学習済みモデルはhttps://github.com/Liuchen1997/RFAConvで入手できます。

要約(オリジナル)

Spatial attention has been demonstrated to enable convolutional neural networks to focus on critical information to improve network performance, but it still has limitations. In this paper, we explain the effectiveness of spatial attention from a new perspective, it is that the spatial attention mechanism essentially solves the problem of convolutional kernel parameter sharing. However, the information contained in the attention map generated by spatial attention is still lacking for large-size convolutional kernels. So, we propose a new attention mechanism called Receptive-Field Attention (RFA). The Convolutional Block Attention Module (CBAM) and Coordinate Attention (CA) only focus on spatial features and cannot fully solve the problem of convolutional kernel parameter sharing, but in RFA, the receptive-field spatial feature not only is focused but also provide good attention weights for large-size convolutional kernels. The Receptive-Field Attention convolutional operation (RFAConv) designed by RFA can be considered a new way to replace the standard convolution and brings almost negligible computational cost and a number of parameters. Numerous experiments on Imagenet-1k, MS COCO, and VOC demonstrate the superior performance of our approach in classification, object detection, and semantic segmentation tasks. Importantly, we believe that for some current spatial attention mechanisms that focus only on spatial features, it is time to improve the performance of the network by focusing on receptive-field spatial features. The code and pre-trained models for the relevant tasks can be found at https://github.com/Liuchen1997/RFAConv

arxiv情報

著者 Xin Zhang,Chen Liu,Degang Yang,Tingting Song,Yichen Ye,Ke Li,Yingze Song
発行日 2023-04-06 16:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク