要約
タイトル:ランダムサンプリングウィンドウと重要領域ウィンドウを使用した階層ビジョントランスフォーマーのRSIRトランスフォーマー
要約:
– Transformerは、さまざまなビジョンタスクにおいて有望な性能を示していますが、高コストなグローバルセルフアテンションは、特に高解像度のビジョンタスクにおいては依然として課題となっています。
– グローバルモデリング能力を向上させるために、2つの新しいアテンションモジュール(ランダムサンプリングウィンドウと重要領域ウィンドウ)を導入しています。
– ランダムサンプリングウィンドウは、均等分布に従ってランダムな画像パッチをサンプリングし、IR-Winは、アテンションマップ内の画像パッチの重みに従ってウィンドウを構成します。RS-Winが前段階でもグローバル情報を把握できるため、IR-Winがより情報を集めることができます。
– これらの設計を組み込んだRSIR-Win Transformerは、一般的なビジョンタスクで競合力のある性能を示します。
要約(オリジナル)
Recently, Transformers have shown promising performance in various vision tasks. However, the high costs of global self-attention remain challenging for Transformers, especially for high-resolution vision tasks. Local self-attention runs attention computation within a limited region for the sake of efficiency, resulting in insufficient context modeling as their receptive fields are small. In this work, we introduce two new attention modules to enhance the global modeling capability of the hierarchical vision transformer, namely, random sampling windows (RS-Win) and important region windows (IR-Win). Specifically, RS-Win sample random image patches to compose the window, following a uniform distribution, i.e., the patches in RS-Win can come from any position in the image. IR-Win composes the window according to the weights of the image patches in the attention map. Notably, RS-Win is able to capture global information throughout the entire model, even in earlier, high-resolution stages. IR-Win enables the self-attention module to focus on important regions of the image and capture more informative features. Incorporated with these designs, RSIR-Win Transformer demonstrates competitive performance on common vision tasks.
arxiv情報
著者 | Zhemin Zhang,Xun Gong |
発行日 | 2023-04-26 08:59:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI