VideoGPT+: Integrating Image and Video Encoders for Enhanced Video Understanding

要約

言語モデルの進歩に基づいて構築された大規模マルチモーダル モデル (LMM) は、ビデオ理解の大幅な向上に貢献しました。
現在のビデオ LMM は高度なラージ言語モデル (LLM) を利用していますが、視覚入力を処理するために画像エンコーダまたはビデオ エンコーダに依存しており、それぞれに独自の制限があります。
画像エンコーダは、フレーム シーケンスから豊かな空間的詳細をキャプチャすることに優れていますが、複雑なアクション シーケンスを含むビデオでは重要となる、明示的な時間的コンテキストが欠けています。
一方、ビデオ エンコーダは時間的コンテキストを提供しますが、多くの場合、低解像度でまばらなフレームのみを処理することになる計算上の制約によって制限され、その結果、コンテキストと空間の理解が低下します。
この目的を達成するために、画像エンコーダー (詳細な空間理解のため) とビデオ エンコーダー (グローバルな時間コンテキスト モデリングのため) の相補的な利点を組み合わせた VideoGPT+ を導入します。
このモデルは、ビデオをより小さなセグメントに分割して処理し、画像エンコーダーとビデオ エンコーダーの両方によって抽出された特徴に適応プーリング戦略を適用します。
当社のアーキテクチャは、VCGBench、MVBench、ゼロショット質問応答など、複数のビデオ ベンチマークにわたってパフォーマンスの向上を示しています。
さらに、モデルのパフォーマンスをさらに向上させる新しい半自動注釈パイプラインを使用して 112K ビデオ命令セットを開発します。
さらに、ビデオ LMM を包括的に評価するために、ライフスタイル、スポーツ、科学、ゲーム、監視ビデオなど 18 の幅広いビデオ カテゴリをカバーする VCGBench-Diverse を紹介します。
4,354 の質問と回答のペアを含むこのベンチマークは、高密度ビデオ キャプション、空間的および時間的理解、および複雑な推論に関する既存の LMM の一般化を評価し、多様なビデオ タイプとダイナミクスにわたる包括的な評価を保証します。
コード: https://github.com/mbzuai-oryx/VideoGPT-plus。

要約(オリジナル)

Building on the advances of language models, Large Multimodal Models (LMMs) have contributed significant improvements in video understanding. While the current video LMMs utilize advanced Large Language Models (LLMs), they rely on either image or video encoders to process visual inputs, each of which has its own limitations. Image encoders excel at capturing rich spatial details from frame sequences but lack explicit temporal context, which can be important in videos with intricate action sequences. On the other hand, video encoders provide temporal context but are often limited by computational constraints that lead to processing only sparse frames at lower resolutions, resulting in reduced contextual and spatial understanding. To this end, we introduce VideoGPT+, which combines the complementary benefits of the image encoder (for detailed spatial understanding) and the video encoder (for global temporal context modeling). The model processes videos by dividing them into smaller segments and applies an adaptive pooling strategy on features extracted by both image and video encoders. Our architecture showcases improved performance across multiple video benchmarks, including VCGBench, MVBench and Zero-shot question-answering. Further, we develop 112K video-instruction set using a novel semi-automatic annotation pipeline which further improves the model performance. Additionally, to comprehensively evaluate video LMMs, we present VCGBench-Diverse, covering 18 broad video categories such as lifestyle, sports, science, gaming, and surveillance videos. This benchmark with 4,354 question-answer pairs evaluates the generalization of existing LMMs on dense video captioning, spatial and temporal understanding, and complex reasoning, ensuring comprehensive assessment across diverse video types and dynamics. Code: https://github.com/mbzuai-oryx/VideoGPT-plus.

arxiv情報

著者 Muhammad Maaz,Hanoona Rasheed,Salman Khan,Fahad Khan
発行日 2024-06-13 17:59:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク