TadML: A fast temporal action detection with Mechanics-MLP

要約

時間的行動検出(TAD)は、映像理解における重要かつ困難な課題である。これは、トリミングされていない長い映像から、各行動インスタンスの種類と開始終了フレームの両方を検出することを目的としている。そのため、オリジナルのRGBフレームをOptical-Flowフレームに手動で変換する必要があり、計算コストと時間がかかり、リアルタイム処理の実現に支障をきたしています。現在、多くのモデルが2段階戦略を採用していますが、これでは推論速度が低下し、提案の生成に複雑なチューニングが必要になります。これに対し、我々は、新しいニュートン型୧⃛Mechanics⃙⃘を用いたRGBストリームのみの1段階アンカーレス時間位置特定手法を提案します。本手法は、既存のすべての最先端モデルと同等の精度を持ちながら、これらの手法の推論速度を大きく上回る。本論文の典型的な推論速度は、THUMOS14で4.44 video per secondという驚異的なものである。また、TADのような下流タスクにおいても、⾰新的な推論が可能であることを⽰唆しています。ソースコードはこちら(英文)からダウンロードできます。

要約(オリジナル)

Temporal Action Detection(TAD) is a crucial but challenging task in video understanding.It is aimed at detecting both the type and start-end frame for each action instance in a long, untrimmed video.Most current models adopt both RGB and Optical-Flow streams for the TAD task. Thus, original RGB frames must be converted manually into Optical-Flow frames with additional computation and time cost, which is an obstacle to achieve real-time processing. At present, many models adopt two-stage strategies, which would slow the inference speed down and complicatedly tuning on proposals generating.By comparison, we propose a one-stage anchor-free temporal localization method with RGB stream only, in which a novel Newtonian \emph{Mechanics-MLP} architecture is established. It has comparable accuracy with all existing state-of-the-art models, while surpasses the inference speed of these methods by a large margin. The typical inference speed in this paper is astounding 4.44 video per second on THUMOS14. In applications, because there is no need to convert optical flow, the inference speed will be faster.It also proves that \emph{MLP} has great potential in downstream tasks such as TAD. The source code is available at \url{https://github.com/BonedDeng/TadML}

arxiv情報

著者 Bowen Deng,Dongchang Liu
発行日 2022-06-07 04:07:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク