ViGAT: Bottom-up event recognition and explanation in video using factorized graph attention network

要約

このホワイトペーパーでは、ViGATと呼ばれる純粋な注意のボトムアップアプローチで、オブジェクト検出器とVision Transformer(ViT)バックボーンネットワークを使用してオブジェクトとフレームの機能を導き出し、ヘッドネットワークを使用してこれらの機能をイベントのタスクに処理します。
ビデオでの認識と説明が提案されています。
ViGATヘッドは、オブジェクトまたはフレーム間のローカルおよび長期の両方の依存関係を効果的にキャプチャするために、空間的および時間的次元に沿って因数分解されたグラフアテンションネットワーク(GAT)ブロックで構成されます。
さらに、さまざまなGATブロックの隣接行列から導出された加重度(WiD)を使用して、提案されたアーキテクチャがネットワークの決定を説明する最も顕著なオブジェクトとフレームを識別できることを示します。
包括的な評価研究が実施され、提案されたアプローチが3つの大規模な公開されているビデオデータセット(FCVID、Mini-Kinetics、ActivityNet)で最先端の結果を提供することを示しています。

要約(オリジナル)

In this paper a pure-attention bottom-up approach, called ViGAT, that utilizes an object detector together with a Vision Transformer (ViT) backbone network to derive object and frame features, and a head network to process these features for the task of event recognition and explanation in video, is proposed. The ViGAT head consists of graph attention network (GAT) blocks factorized along the spatial and temporal dimensions in order to capture effectively both local and long-term dependencies between objects or frames. Moreover, using the weighted in-degrees (WiDs) derived from the adjacency matrices at the various GAT blocks, we show that the proposed architecture can identify the most salient objects and frames that explain the decision of the network. A comprehensive evaluation study is performed, demonstrating that the proposed approach provides state-of-the-art results on three large, publicly available video datasets (FCVID, Mini-Kinetics, ActivityNet).

arxiv情報

著者 Nikolaos Gkalelis,Dimitrios Daskalakis,Vasileios Mezaris
発行日 2022-07-20 14:12:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.MM パーマリンク