Efficient Video Action Detection with Token Dropout and Context Refinement

要約

タイトル:トークン・ドロップアウトとコンテキストの洗練による効率的なビデオアクション検出

要約:
– 大規模なビデオトークンを含むストリーミングビデオクリップは、特に正確なアクター識別のために十分な空間的・時間的表現が必要なビデオアクション検出において、効率的な認識を妨げる。
– 本研究では、バニラのViTsに基づく効率的なビデオアクション検出(EVAD)のエンドツーエンドフレームワークを提案する。
– EVADは、ビデオアクション検出のための2つの専門設計が含まれる。第一に、キーフレーム中心の観点から空間的・時間的トークンのドロップアウトを提案する。
– 第二に、残存トークンを活用してシーンコンテキストを洗練することで、ROIを時空間に拡張し、アクターの識別を高精度化する。
– これらの設計により、性能劣化なしにGFLOPsを43%削減し、リアルタイム推論スピードを40%向上させることができる。
– さらに、同様の計算コストであっても、ハイレゾリューションの入力により、性能を1.0 mAP向上させることができる。

要約(オリジナル)

Streaming video clips with large-scale video tokens impede vision transformers (ViTs) for efficient recognition, especially in video action detection where sufficient spatiotemporal representations are required for precise actor identification. In this work, we propose an end-to-end framework for efficient video action detection (EVAD) based on vanilla ViTs. Our EVAD consists of two specialized designs for video action detection. First, we propose a spatiotemporal token dropout from a keyframe-centric perspective. In a video clip, we maintain all tokens from its keyframe, preserve tokens relevant to actor motions from other frames, and drop out the remaining tokens in this clip. Second, we refine scene context by leveraging remaining tokens for better recognizing actor identities. The region of interest (RoI) in our action detector is expanded into temporal domain. The captured spatiotemporal actor identity representations are refined via scene context in a decoder with the attention mechanism. These two designs make our EVAD efficient while maintaining accuracy, which is validated on three benchmark datasets (i.e., AVA, UCF101-24, JHMDB). Compared to the vanilla ViT backbone, our EVAD reduces the overall GFLOPs by 43% and improves real-time inference speed by 40% with no performance degradation. Moreover, even at similar computational costs, our EVAD can improve the performance by 1.0 mAP with higher resolution inputs. Code is available at https://github.com/MCG-NJU/EVAD.

arxiv情報

著者 Lei Chen,Zhan Tong,Yibing Song,Gangshan Wu,Limin Wang
発行日 2023-04-17 17:21:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク