VindLU: A Recipe for Effective Video-and-Language Pretraining

要約

ここ数年で、ビデオと言語 (VidL) の理解が著しく進歩しました。
ただし、最新の VidL アプローチのほとんどは、複雑で特殊なモデル アーキテクチャと洗練された事前トレーニング プロトコルを使用しているため、これらのフレームワークの再現性、分析、比較が困難になっています。
したがって、このホワイト ペーパーでは、さらに別の新しい VidL モデルを提案する代わりに、VidL モデルの設計における最も重要な要素をわかりやすく説明する徹底的な実証研究を実施します。
私たちが調査する要因には、(i) 時空間アーキテクチャ設計、(ii) マルチモーダル フュージョン スキーム、(iii) 事前トレーニングの目的、(iv) 事前トレーニング データの選択、(v) 事前トレーニングと微調整プロトコル、および (vi) があります。
) データセットとモデルのスケーリング。
私たちの経験的研究は、最も重要な設計要因には、時間モデリング、ビデオからテキストへのマルチモーダル融合、マスクされたモデリングの目的、および画像とビデオの共同トレーニングが含まれることを明らかにしています。
これらの経験的洞察を使用して、効果的な VidL 事前トレーニングのために、VindLU と呼ばれる段階的なレシピを開発します。
レシピを使用してトレーニングされた最終モデルは、外部の CLIP 事前トレーニングに依存することなく、いくつかの VidL タスクで最先端の結果と同等またはそれ以上の結果を達成します。
特に、テキストからビデオへの検索タスクでは、私たちのアプローチは DiDeMo で 61.2%、ActivityNet で 55.0% を取得し、現在の SOTA をそれぞれ 7.8% と 6.1% 上回っています。
さらに、私たちのモデルは、ActivityNet-QA、MSRVTT-QA、MSRVTT-MC、および TVQA で最先端のビデオ質問応答結果も取得します。
コードと事前トレーニング済みのモデルは、https://github.com/klauscc/VindLU で公開されています。

要約(オリジナル)

The last several years have witnessed remarkable progress in video-and-language (VidL) understanding. However, most modern VidL approaches use complex and specialized model architectures and sophisticated pretraining protocols, making the reproducibility, analysis and comparisons of these frameworks difficult. Hence, instead of proposing yet another new VidL model, this paper conducts a thorough empirical study demystifying the most important factors in the VidL model design. Among the factors that we investigate are (i) the spatiotemporal architecture design, (ii) the multimodal fusion schemes, (iii) the pretraining objectives, (iv) the choice of pretraining data, (v) pretraining and finetuning protocols, and (vi) dataset and model scaling. Our empirical study reveals that the most important design factors include: temporal modeling, video-to-text multimodal fusion, masked modeling objectives, and joint training on images and videos. Using these empirical insights, we then develop a step-by-step recipe, dubbed VindLU, for effective VidL pretraining. Our final model trained using our recipe achieves comparable or better than state-of-the-art results on several VidL tasks without relying on external CLIP pretraining. In particular, on the text-to-video retrieval task, our approach obtains 61.2% on DiDeMo, and 55.0% on ActivityNet, outperforming current SOTA by 7.8% and 6.1% respectively. Furthermore, our model also obtains state-of-the-art video question-answering results on ActivityNet-QA, MSRVTT-QA, MSRVTT-MC and TVQA. Our code and pretrained models are publicly available at: https://github.com/klauscc/VindLU.

arxiv情報

著者 Feng Cheng,Xizi Wang,Jie Lei,David Crandall,Mohit Bansal,Gedas Bertasius
発行日 2022-12-09 18:54:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク