CLIP-ViP: Adapting Pre-trained Image-Text Model to Video-Language Representation Alignment

要約

CLIP などの事前トレーニング済みの画像テキスト モデルは、Web で収集された大規模な画像テキスト データから学習した視覚言語表現の強力な力を実証しています。
十分に学習された視覚的特徴に照らして、いくつかの既存の作品は画像表現をビデオ領域に移し、良い結果を達成しています。
ただし、画像言語の事前トレーニング済みモデル (CLIP など) をビデオ言語の事前トレーニング (事後事前トレーニング) に利用する方法はまだ調査中です。
このホワイト ペーパーでは、次の 2 つの質問を調査します。
2) これらの要因の影響を軽減する方法は?
一連の比較実験と分析を通じて、言語ソース間のデータ スケールとドメイン ギャップが大きな影響を与えることがわかりました。
これらに動機づけられて、CLIP、すなわちCLIP-ViPに基づくビデオプロキシメカニズムを備えたオムニソースクロスモーダル学習方法を提案します。
広範な結果は、私たちのアプローチがビデオテキスト検索でのCLIPのパフォーマンスを大幅に改善することを示しています。
私たちのモデルは、MSR-VTT、DiDeMo、LSMDC、ActivityNet などのさまざまなデータセットでも SOTA の結果を達成しています。
コードと事前トレーニング済みの CLIP-ViP モデルを https://github.com/microsoft/XPretrain/tree/main/CLIP-ViP でリリースしています。

要約(オリジナル)

The pre-trained image-text models, like CLIP, have demonstrated the strong power of vision-language representation learned from a large scale of web-collected image-text data. In light of the well-learned visual features, some existing works transfer image representation to video domain and achieve good results. However, how to utilize image-language pre-trained model (e.g., CLIP) for video-language pre-training (post-pretraining) is still under explored. In this paper, we investigate two questions: 1) what are the factors hindering post-pretraining CLIP to further improve the performance on video-language tasks? and 2) how to mitigate the impact of these factors? Through a series of comparative experiments and analyses, we find that the data scale and domain gap between language sources have great impacts. Motivated by these, we propose a Omnisource Cross-modal Learning method equipped with a Video Proxy mechanism on the basis of CLIP, namely CLIP-ViP. Extensive results show that our approach improves the performance of CLIP on video-text retrieval by a large margin. Our model also achieves SOTA results on a variety of datasets, including MSR-VTT, DiDeMo, LSMDC, and ActivityNet. We release our code and pre-trained CLIP-ViP models at https://github.com/microsoft/XPretrain/tree/main/CLIP-ViP.

arxiv情報

著者 Hongwei Xue,Yuchong Sun,Bei Liu,Jianlong Fu,Ruihua Song,Houqiang Li,Jiebo Luo
発行日 2022-09-14 05:47:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク