SimA: Simple Softmax-free Attention for Vision Transformers

要約

最近、ビジョントランスが非常に人気になっています。
ただし、それらを多くのアプリケーションにデプロイすることは、アテンションブロックのSoftmaxレイヤーのために、計算コストが高くなります。
Softmaxレイヤーを使用する代わりに、単純な$ \ ell_1 $-normを使用してクエリとキーの行列を正規化する、シンプルで効果的なSoftmaxフリーのアテンションブロックSimAを紹介します。
次に、SimAのアテンションブロックは3つの行列の単純な乗算であるため、SimAはテスト時に計算の順序を動的に変更して、トークン数またはチャネル数の線形計算を実現できます。
SimAをトランスの3つのSOTAバリエーション、DeiT、XCiT、およびCvTに適用すると、Softmax層を必要とせずに、SOTAモデルと比較して同等の精度が得られることを経験的に示します。
興味深いことに、SimAをマルチヘッドからシングルヘッドに変更しても、精度への影響はわずかであり、注意ブロックがさらに単純化されます。
コードはこちらから入手できます:$ \ href {https://github.com/UCDvision/sima} {\ text {This https URL}} $

要約(オリジナル)

Recently, vision transformers have become very popular. However, deploying them in many applications is computationally expensive partly due to the Softmax layer in the attention block. We introduce a simple but effective, Softmax-free attention block, SimA, which normalizes query and key matrices with simple $\ell_1$-norm instead of using Softmax layer. Then, the attention block in SimA is a simple multiplication of three matrices, so SimA can dynamically change the ordering of the computation at the test time to achieve linear computation on the number of tokens or the number of channels. We empirically show that SimA applied to three SOTA variations of transformers, DeiT, XCiT, and CvT, results in on-par accuracy compared to the SOTA models, without any need for Softmax layer. Interestingly, changing SimA from multi-head to single-head has only a small effect on the accuracy, which simplifies the attention block further. The code is available here: $\href{https://github.com/UCDvision/sima}{\text{This https URL}}$

arxiv情報

著者 Soroush Abbasi Koohpayegani,Hamed Pirsiavash
発行日 2022-06-17 17:15:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク