VindLU: A Recipe for Effective Video-and-Language Pretraining

要約

タイトル:有効なビデオおよび言語の事前学習のレシピであるVindLU

要約:
– 近年、ビデオおよび言語 (VidL) 理解において著しい進歩が見られます。
– 多くの現代的な VidL アプローチは、複雑で専門化されたモデルアーキテクチャと洗練された事前学習プロトコルを使用していますが、これによりこれらのフレームワークの再現性、分析、および比較が困難になります。
– VidL モデルを提案する代わりに、本稿では、VidL モデル設計の最も重要な要因を明らかにする徹底的な経験的研究を行います。
– 調査する要因には、(i) 空間時間アーキテクチャ設計、(ii) マルチモーダル融合方式、(iii) 事前学習目的、(iv) 事前学習データの選択、(v) 事前学習およびファインチューニングプロトコル、および (vi) データセットとモデルスケーリングが含まれます。
– 経験的研究により、最も重要な設計要因は、時間モデリング、ビデオからテキストのマルチモーダル融合、マスクされたモデリング目的、および画像とビデオの共同トレーニングであることが明らかになります。
– これらの経験的な洞察を活用して、有効な VidL 事前学習のステップバイステップのレシピである VindLU を開発します。
– 弊社のレシピを使用してトレーニングされた最終モデルは、外部の CLIP の事前学習を依存せず、いくつかの VidL タスクでSOTA に匹敵するかそれ以上の結果を達成します。
– 特に、テキストからビデオ検索タスクでは、DiDeMoで61.2%、ActivityNetで55.0%を獲得し、現在の SOTA をそれぞれ7.8%と6.1%上回ります。さらに、私たちのモデルは、ActivityNet-QA、MSRVTT-QA、MSRVTT-MC、および TVQA において、最新のビデオ質問応答の結果を出します。
– 私たちのコードと事前トレーニング済みモデルは、https://github.com/klauscc/VindLU で公開されています。

要約(オリジナル)

The last several years have witnessed remarkable progress in video-and-language (VidL) understanding. However, most modern VidL approaches use complex and specialized model architectures and sophisticated pretraining protocols, making the reproducibility, analysis and comparisons of these frameworks difficult. Hence, instead of proposing yet another new VidL model, this paper conducts a thorough empirical study demystifying the most important factors in the VidL model design. Among the factors that we investigate are (i) the spatiotemporal architecture design, (ii) the multimodal fusion schemes, (iii) the pretraining objectives, (iv) the choice of pretraining data, (v) pretraining and finetuning protocols, and (vi) dataset and model scaling. Our empirical study reveals that the most important design factors include: temporal modeling, video-to-text multimodal fusion, masked modeling objectives, and joint training on images and videos. Using these empirical insights, we then develop a step-by-step recipe, dubbed VindLU, for effective VidL pretraining. Our final model trained using our recipe achieves comparable or better than state-of-the-art results on several VidL tasks without relying on external CLIP pretraining. In particular, on the text-to-video retrieval task, our approach obtains 61.2% on DiDeMo, and 55.0% on ActivityNet, outperforming current SOTA by 7.8% and 6.1% respectively. Furthermore, our model also obtains state-of-the-art video question-answering results on ActivityNet-QA, MSRVTT-QA, MSRVTT-MC and TVQA. Our code and pretrained models are publicly available at: https://github.com/klauscc/VindLU.

arxiv情報

著者 Feng Cheng,Xizi Wang,Jie Lei,David Crandall,Mohit Bansal,Gedas Bertasius
発行日 2023-04-05 17:56:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク