Dilated Neighborhood Attention Transformer

要約

トランスフォーマーは、モダリティ、ドメイン、およびタスク全体で最も頻繁に適用されるディープ ラーニング アーキテクチャの 1 つになりつつあります。
ビジョンでは、単純なトランスフォーマーへの継続的な取り組みに加えて、そのパフォーマンスと既存のフレームワークへの容易な統合のおかげで、階層トランスフォーマーも大きな注目を集めています。
これらのモデルは通常、スライディング ウィンドウの近隣注意 (NA) や Swin Transformer の Shifted Window Self Attention などのローカライズされた注意メカニズムを採用しています。
自己注意の二次的な複雑さを軽減するのに効果的ですが、ローカル注意は、自己注意の最も望ましい特性のうちの 2 つ、つまり長期相互依存モデリングとグローバル受容野を弱めます。
このホワイト ペーパーでは、Dilated Neighborhood Attention (DiNA) を紹介します。これは、よりグローバルなコンテキストをキャプチャし、追加コストなしで指数関数的に受容野を拡張できる NA の自然で柔軟かつ効率的な拡張機能です。
NA のローカルな注意と DiNA のまばらなグローバルな注意は互いに補完し合うため、両方に基づいて構築された新しい階層的ビジョン トランスフォーマーである Dilated Neighborhood Attention Transformer (DiNAT) を導入します。
DiNAT バリアントは、NAT や Swin などの注意ベースのベースラインや、最新の畳み込みベースライン ConvNeXt よりも大幅に改善されています。
当社のラージ モデルは、COCO オブジェクト検出でボックス AP が 1.5%、COCO インスタンス セグメンテーションでマスク AP が 1.3%、ADE20K セマンティック セグメンテーションで mIoU が 1.1% だけ、Swin の対応するモデルよりも優れており、スループットも高速です。
NA と DiNA の組み合わせは、このホワイト ペーパーで紹介したものを超えて、さまざまなタスクに力を与える可能性があると考えています。
この方向性、ビジョン、およびその先の研究をサポートおよび奨励するために、https://github.com/SHI-Labs/Neighborhood-Attention-Transformer でプロジェクトをオープンソース化しています。

要約(オリジナル)

Transformers are quickly becoming one of the most heavily applied deep learning architectures across modalities, domains, and tasks. In vision, on top of ongoing efforts into plain transformers, hierarchical transformers have also gained significant attention, thanks to their performance and easy integration into existing frameworks. These models typically employ localized attention mechanisms, such as the sliding-window Neighborhood Attention (NA) or Swin Transformer’s Shifted Window Self Attention. While effective at reducing self attention’s quadratic complexity, local attention weakens two of the most desirable properties of self attention: long range inter-dependency modeling, and global receptive field. In this paper, we introduce Dilated Neighborhood Attention (DiNA), a natural, flexible and efficient extension to NA that can capture more global context and expand receptive fields exponentially at no additional cost. NA’s local attention and DiNA’s sparse global attention complement each other, and therefore we introduce Dilated Neighborhood Attention Transformer (DiNAT), a new hierarchical vision transformer built upon both. DiNAT variants enjoy significant improvements over attention-based baselines such as NAT and Swin, as well as modern convolutional baseline ConvNeXt. Our Large model is ahead of its Swin counterpart by 1.5% box AP in COCO object detection, 1.3% mask AP in COCO instance segmentation, and 1.1% mIoU in ADE20K semantic segmentation, and faster in throughput. We believe combinations of NA and DiNA have the potential to empower various tasks beyond those presented in this paper. To support and encourage research in this direction, in vision and beyond, we open-source our project at: https://github.com/SHI-Labs/Neighborhood-Attention-Transformer.

arxiv情報

著者 Ali Hassani,Humphrey Shi
発行日 2022-09-29 17:57:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク