Efficient Video Action Detection with Token Dropout and Context Refinement

要約

大規模なビデオ トークンを含むストリーミング ビデオ クリップは、特にアクターを正確に識別するために十分な時空間表現が必要なビデオ アクション検出において、効率的な認識のためのビジョン トランスフォーマー (ViT) を妨げます。
この研究では、バニラ ViT に基づいた効率的なビデオ アクション検出 (EVAD) のためのエンドツーエンド フレームワークを提案します。
当社の EVAD は、ビデオアクション検出のための 2 つの特殊な設計で構成されています。
まず、キーフレーム中心の観点から時空間トークンのドロップアウトを提案します。
ビデオ クリップでは、キーフレームのすべてのトークンを維持し、他のフレームのアクターのモーションに関連するトークンを保持し、このクリップ内の残りのトークンをドロップします。
次に、俳優のアイデンティティをよりよく認識するために残りのトークンを活用してシーンのコンテキストを洗練します。
アクション検出器の関心領域 (RoI) は時間領域に拡張されます。
キャプチャされた時空間的な俳優のアイデンティティ表現は、アテンション メカニズムを備えたデコーダーのシーン コンテキストを介して洗練されます。
これら 2 つの設計により、精度を維持しながら EVAD が効率的になり、精度は 3 つのベンチマーク データセット (AVA、UCF101-24、JHMDB) で検証されています。
バニラ ViT バックボーンと比較して、当社の EVAD は、パフォーマンスを低下させることなく、全体の GFLOP を 43% 削減し、リアルタイム推論速度を 40% 向上させます。
さらに、同様の計算コストでも、当社の EVAD は、より高い解像度の入力でパフォーマンスを 1.1 mAP 向上させることができます。
コードは https://github.com/MCG-NJU/EVAD で入手できます。

要約(オリジナル)

Streaming video clips with large-scale video tokens impede vision transformers (ViTs) for efficient recognition, especially in video action detection where sufficient spatiotemporal representations are required for precise actor identification. In this work, we propose an end-to-end framework for efficient video action detection (EVAD) based on vanilla ViTs. Our EVAD consists of two specialized designs for video action detection. First, we propose a spatiotemporal token dropout from a keyframe-centric perspective. In a video clip, we maintain all tokens from its keyframe, preserve tokens relevant to actor motions from other frames, and drop out the remaining tokens in this clip. Second, we refine scene context by leveraging remaining tokens for better recognizing actor identities. The region of interest (RoI) in our action detector is expanded into temporal domain. The captured spatiotemporal actor identity representations are refined via scene context in a decoder with the attention mechanism. These two designs make our EVAD efficient while maintaining accuracy, which is validated on three benchmark datasets (i.e., AVA, UCF101-24, JHMDB). Compared to the vanilla ViT backbone, our EVAD reduces the overall GFLOPs by 43% and improves real-time inference speed by 40% with no performance degradation. Moreover, even at similar computational costs, our EVAD can improve the performance by 1.1 mAP with higher resolution inputs. Code is available at https://github.com/MCG-NJU/EVAD.

arxiv情報

著者 Lei Chen,Zhan Tong,Yibing Song,Gangshan Wu,Limin Wang
発行日 2023-06-07 16:04:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク