要約
ラージ ビジョン ランゲージ モデル (LVLM) の出現により、マルチモーダルなコンテキスト、特にビデオ理解におけるそのアプリケーションの研究が促進されました。
従来の VideoQA ベンチマークは、定量的な指標を提供しているにもかかわらず、多くの場合、ビデオ コンテンツの全範囲を網羅できず、モデルの時間的理解を不十分に評価しています。
これらの制限に対処するために、LVLM のビデオ理解能力を厳密に評価するように設計された定量的ベンチマークである MMBench-Video を導入します。
MMBench-Video には YouTube からの長いビデオが組み込まれており、実際の使用例を反映した自由形式の質問が採用されています。
このベンチマークは、モデルの時間的推論スキルを調査するために細心の注意を払って作成されており、慎重に構築された能力分類に従ってすべての質問に人間による注釈が付けられています。
当社では自動評価に GPT-4 を採用しており、以前の LLM ベースの評価よりも優れた精度と堅牢性を実証しています。
MMBench-Video を利用して、画像とビデオに対する独自の LVLM とオープンソースの LVLM の両方を含む包括的な評価を実施しました。
MMBench-Video は、研究コミュニティにとって貴重なリソースとして機能し、LVLM の評価の改善を促進し、ビデオ理解の分野での進歩を促進します。
MMBench-Video の評価コードは VLMEvalKit (https://github.com/open-compass/VLMEvalKit) に統合されます。
要約(オリジナル)
The advent of large vision-language models (LVLMs) has spurred research into their applications in multi-modal contexts, particularly in video understanding. Traditional VideoQA benchmarks, despite providing quantitative metrics, often fail to encompass the full spectrum of video content and inadequately assess models’ temporal comprehension. To address these limitations, we introduce MMBench-Video, a quantitative benchmark designed to rigorously evaluate LVLMs’ proficiency in video understanding. MMBench-Video incorporates lengthy videos from YouTube and employs free-form questions, mirroring practical use cases. The benchmark is meticulously crafted to probe the models’ temporal reasoning skills, with all questions human-annotated according to a carefully constructed ability taxonomy. We employ GPT-4 for automated assessment, demonstrating superior accuracy and robustness over earlier LLM-based evaluations. Utilizing MMBench-Video, we have conducted comprehensive evaluations that include both proprietary and open-source LVLMs for images and videos. MMBench-Video stands as a valuable resource for the research community, facilitating improved evaluation of LVLMs and catalyzing progress in the field of video understanding. The evalutation code of MMBench-Video will be integrated into VLMEvalKit: https://github.com/open-compass/VLMEvalKit.
arxiv情報
著者 | Xinyu Fang,Kangrui Mao,Haodong Duan,Xiangyu Zhao,Yining Li,Dahua Lin,Kai Chen |
発行日 | 2024-06-20 17:26:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google