LiteVL: Efficient Video-Language Learning with Enhanced Spatial-Temporal Modeling

要約

最近の大規模なビデオ言語の事前トレーニング済みモデルは、さまざまなダウンストリーム タスクで魅力的なパフォーマンスを示しています。
ただし、何百万ものビデオとテキストのペアが必要であり、各ビデオのデータ構造が冗長であるため、事前トレーニング プロセスには計算コストがかかります。
これらの問題を軽減するために、LiteVL を提案します。LiteVL は、大量の事前トレーニングなしで、事前トレーニング済みのイメージ言語モデル BLIP をダウンストリーム タスクでビデオ テキスト モデルに直接適応させます。
イメージ言語モデルに欠けている時間モデリングを強化するために、BLIP の画像エンコーダに動的時間スケーリングを使用して時間注意モジュールを追加することを提案します。
モデルごとの適応に加えて、テキストに条件付けられたきめ細かいビデオ埋め込みを適応的に再重み付けするノンパラメトリック プーリング メカニズムも提案します。
テキストビデオ検索とビデオ質問応答に関する実験結果は、提案された LiteVL が以前のビデオ言語事前トレーニング済みモデルよりも明らかに優れていることを示していますが、ビデオ言語事前トレーニングはありません。

要約(オリジナル)

Recent large-scale video-language pre-trained models have shown appealing performance on various downstream tasks. However, the pre-training process is computationally expensive due to the requirement of millions of video-text pairs and the redundant data structure of each video. To mitigate these problems, we propose LiteVL, which adapts a pre-trained image-language model BLIP into a video-text model directly on downstream tasks, without heavy pre-training. To enhance the temporal modeling lacking in the image-language model, we propose to add temporal attention modules in the image encoder of BLIP with dynamic temporal scaling. Besides the model-wise adaptation, we also propose a non-parametric pooling mechanism to adaptively reweight the fine-grained video embedding conditioned on the text. Experimental results on text-video retrieval and video question answering show that the proposed LiteVL even outperforms previous video-language pre-trained models by a clear margin, though without any video-language pre-training.

arxiv情報

著者 Dongsheng Chen,Chaofan Tao,Lu Hou,Lifeng Shang,Xin Jiang,Qun Liu
発行日 2022-10-21 13:03:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV パーマリンク