Token Merging: Your ViT But Faster

要約

トークン マージ (ToMe) を導入します。これは、トレーニングを必要とせずに既存の ViT モデルのスループットを向上させる簡単な方法です。
ToMe は、一般的で軽量なマッチング アルゴリズムを使用して、同様のトークンをトランスフォーマーで徐々に結合します。このアルゴリズムは、剪定と同じくらい高速でありながら、より正確です。
既製の ToMe は、画像では最先端の ViT-L @ 512 および ViT-H @ 518 モデルの 2 倍のスループット、ビデオでは ViT-L の 2.2 倍のスループットをわずか 0.2 ~ 0.3 で実現できます。
それぞれの場合の精度低下率。
ToMe はトレーニング中にも簡単に適用できるため、実際のトレーニング速度が最大 2 倍向上し、ビデオでの MAE の微調整が可能になります。
ToMe を使用したトレーニングにより、精度の低下がさらに最小限に抑えられ、わずか 0.4% の mAP 低下で音声の ViT-B の 2 倍のスループットが得られます。
定性的には、ビデオの複数のフレームにわたっても、ToMe がオブジェクト パーツを 1 つのトークンにマージすることがわかります。
全体として、ToMe の精度と速度は、画像、ビデオ、およびオーディオの最先端技術に匹敵します。

要約(オリジナル)

We introduce Token Merging (ToMe), a simple method to increase the throughput of existing ViT models without needing to train. ToMe gradually combines similar tokens in a transformer using a general and light-weight matching algorithm that is as fast as pruning while being more accurate. Off-the-shelf, ToMe can 2x the throughput of state-of-the-art ViT-L @ 512 and ViT-H @ 518 models on images and 2.2x the throughput of ViT-L on video with only a 0.2-0.3% accuracy drop in each case. ToMe can also easily be applied during training, improving in practice training speed up to 2x for MAE fine-tuning on video. Training with ToMe further minimizes accuracy drop, leading to 2x the throughput of ViT-B on audio for only a 0.4% mAP drop. Qualitatively, we find that ToMe merges object parts into one token, even over multiple frames of video. Overall, ToMe’s accuracy and speed are competitive with state-of-the-art on images, video, and audio.

arxiv情報

著者 Daniel Bolya,Cheng-Yang Fu,Xiaoliang Dai,Peizhao Zhang,Christoph Feichtenhofer,Judy Hoffman
発行日 2023-02-27 14:25:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク