SPARTAN: Self-supervised Spatiotemporal Transformers Approach to Group Activity Recognition

要約

この論文では、ラベルのないビデオ データを使用したグループ活動認識 (GAR) への、新しく、シンプルかつ効果的な自己教師付き時空間トランスフォーマー (SPARTAN) アプローチを提案します。
ビデオを指定して、さまざまな空間パッチ サイズとフレーム レートを使用して、ローカルおよびグローバルの時空間ビューを作成します。
提案された自己監視型の目的は、同じビデオを表すこれらの対照的なビューの特徴を時空間領域の変化と一致させることを目的としています。
私たちの知る限り、提案されたメカニズムは、ビデオ トランスフォーマーのエンコーダーを使用して GAR の弱く監視された設定を軽減する最初の作品の 1 つです。
さらに、トランスフォーマー モデルの利点を利用して、私たちが提案するアプローチは、時空間次元に沿った長期的な関係モデリングをサポートします。
提案された SPARTAN アプローチは、MCA および MPCA メトリクスの点で最先端の結果を大幅に上回り、NBA とバレーボールのデータセットを含む 2 つのグループ活動認識ベンチマークで良好に機能します。

要約(オリジナル)

In this paper, we propose a new, simple, and effective Self-supervised Spatio-temporal Transformers (SPARTAN) approach to Group Activity Recognition (GAR) using unlabeled video data. Given a video, we create local and global Spatio-temporal views with varying spatial patch sizes and frame rates. The proposed self-supervised objective aims to match the features of these contrasting views representing the same video to be consistent with the variations in spatiotemporal domains. To the best of our knowledge, the proposed mechanism is one of the first works to alleviate the weakly supervised setting of GAR using the encoders in video transformers. Furthermore, using the advantage of transformer models, our proposed approach supports long-term relationship modeling along spatio-temporal dimensions. The proposed SPARTAN approach performs well on two group activity recognition benchmarks, including NBA and Volleyball datasets, by surpassing the state-of-the-art results by a significant margin in terms of MCA and MPCA metrics.

arxiv情報

著者 Naga VS Raviteja Chappa,Pha Nguyen,Alexander H Nelson,Han-Seok Seo,Xin Li,Page Daniel Dobbs,Khoa Luu
発行日 2023-08-28 14:13:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク