Bringing Image Scene Structure to Video via Frame-Clip Consistency of Object Tokens

要約

最近の行動認識モデルは、オブジェクト、その位置、および相互作用を統合することにより、印象的な結果を達成しています。
ただし、フレームごとに密に構造化されたアノテーションを取得するのは面倒で時間がかかるため、これらの方法はトレーニングに費用がかかり、スケーラビリティが低くなります。
同時に、関心のあるドメインの内外で、注釈付きの画像の小さなセットが利用可能である場合、これらをビデオのダウンストリーム タスクにどのように活用できるでしょうか?
学習フレームワーク StructureViT (略して SViT) を提案します。これは、トレーニング中にのみ利用可能な少数の画像の構造を利用して、ビデオ モデルを改善する方法を示します。
SViT は 2 つの重要な洞察に依存しています。
まず、画像と動画の両方に構造化された情報が含まれているため、画像と動画で使用できる \emph{オブジェクト トークン} のセットで変換モデルを強化します。
第 2 に、ビデオの個々のフレームのシーン表現は、静止画像のシーン表現と「整列」する必要があります。
これは、\emph{Frame-Clip Consistency} 損失によって実現され、画像と動画の間の構造化された情報の流れを保証します。
シーン構造の特定のインスタンス化、つまり \emph{Hand-Object Graph} を探索します。これは、ノードとしての位置を持つ手とオブジェクト、エッジとしての接触/非接触の物理的関係から構成されます。
SViT は、複数のビデオ理解タスクとデータセットで大幅なパフォーマンスの向上を示しています。
さらに、Ego4D CVPR’22 Object State Localization チャレンジで優勝しました。
コードと事前トレーニング済みモデルについては、\url{https://eladb3.github.io/SViT/} のプロジェクト ページにアクセスしてください。

要約(オリジナル)

Recent action recognition models have achieved impressive results by integrating objects, their locations and interactions. However, obtaining dense structured annotations for each frame is tedious and time-consuming, making these methods expensive to train and less scalable. At the same time, if a small set of annotated images is available, either within or outside the domain of interest, how could we leverage these for a video downstream task? We propose a learning framework StructureViT (SViT for short), which demonstrates how utilizing the structure of a small number of images only available during training can improve a video model. SViT relies on two key insights. First, as both images and videos contain structured information, we enrich a transformer model with a set of \emph{object tokens} that can be used across images and videos. Second, the scene representations of individual frames in video should ‘align’ with those of still images. This is achieved via a \emph{Frame-Clip Consistency} loss, which ensures the flow of structured information between images and videos. We explore a particular instantiation of scene structure, namely a \emph{Hand-Object Graph}, consisting of hands and objects with their locations as nodes, and physical relations of contact/no-contact as edges. SViT shows strong performance improvements on multiple video understanding tasks and datasets. Furthermore, it won in the Ego4D CVPR’22 Object State Localization challenge. For code and pretrained models, visit the project page at \url{https://eladb3.github.io/SViT/}

arxiv情報

著者 Elad Ben-Avraham,Roei Herzig,Karttikeya Mangalam,Amir Bar,Anna Rohrbach,Leonid Karlinsky,Trevor Darrell,Amir Globerson
発行日 2022-11-29 12:40:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク