Proposal-Free Temporal Action Detection via Global Segmentation Mask Learning

要約

既存の時間アクション検出 (TAD) メソッドは、ビデオごとに圧倒的に多数の提案を生成することに依存しています。
これは、提案の生成および/または提案ごとのアクションインスタンスの評価、および結果としての高い計算コストにより、複雑なモデル設計につながります。
この作業では、初めて、グローバル セグメンテーション マスク (TAGS) を使用した、提案のない時間アクション検出モデルを提案します。
私たちの核となるアイデアは、各アクション インスタンスのグローバル セグメンテーション マスクをビデオ全体の長さで一緒に学習することです。
TAGS モデルは、提案なしでアクション インスタンスのローカルの開始点と終了点を直接検出するグローバルな時間表現学習に焦点を当てることで、従来の提案ベースの方法とは大きく異なります。
さらに、個々の提案レベルで局所的にではなく全体的に TAD をモデル化することにより、TAGS はより低い計算コストでより単純なモデル アーキテクチャを必要とします。
広範な実験により、TAGS はその単純な設計にもかかわらず、既存の TAD メソッドよりも優れたパフォーマンスを発揮し、2 つのベンチマークで新しい最先端のパフォーマンスを達成することが示されています。
重要なのは、トレーニングが最大 20 倍速く、推論が最大 1.6 倍効率的であることです。
TAGS の PyTorch 実装は、https://github.com/sauradip/TAGS で入手できます。

要約(オリジナル)

Existing temporal action detection (TAD) methods rely on generating an overwhelmingly large number of proposals per video. This leads to complex model designs due to proposal generation and/or per-proposal action instance evaluation and the resultant high computational cost. In this work, for the first time, we propose a proposal-free Temporal Action detection model with Global Segmentation mask (TAGS). Our core idea is to learn a global segmentation mask of each action instance jointly at the full video length. The TAGS model differs significantly from the conventional proposal-based methods by focusing on global temporal representation learning to directly detect local start and end points of action instances without proposals. Further, by modeling TAD holistically rather than locally at the individual proposal level, TAGS needs a much simpler model architecture with lower computational cost. Extensive experiments show that despite its simpler design, TAGS outperforms existing TAD methods, achieving new state-of-the-art performance on two benchmarks. Importantly, it is ~ 20x faster to train and ~1.6x more efficient for inference. Our PyTorch implementation of TAGS is available at https://github.com/sauradip/TAGS .

arxiv情報

著者 Sauradip Nag,Xiatian Zhu,Yi-Zhe Song,Tao Xiang
発行日 2022-08-19 17:41:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.MM パーマリンク