要約
マルチモーダル大規模モデル (MLLM) の急速な進歩は、視覚と言語を融合させたタスクに取り組むその素晴らしい能力を示しています。
しかし、現在のモデルとベンチマークのほとんどは、視覚的およびテキストのコンテキストの範囲が狭いシナリオに対応しています。
これらのモデルは、テキスト形式と画像形式の両方で、無関係で誤解を招く可能性のある大量の情報をナビゲートする必要がある複雑な理解タスクに直面すると、不十分になることがよくあります。
このギャップを埋めるために、Interleaved Image-Text Comprehension (IITC) として知られる、より要求の厳しい新しいタスクを導入します。
このタスクでは、モデルが画像とテキストの両方の余分な要素を識別して無視し、質問に正確に答え、関連する画像を正確に特定するための複雑な指示に従うことが求められます。
このタスクを支援するために、科学コンテンツに関する IITC タスクに合わせた新しい VEGA データセットをさらに作成し、画像とテキストの相関スキルを向上させるためのサブタスクである画像テキスト関連付け (ITA) を考案しました。
VEGA を使用した 4 つの主要なクローズドソース モデルおよびさまざまなオープンソース モデルに対する私たちの評価は、IITC の厳格な性質を強調しています。
Gemini-1.5-pro や GPT4V などの最も先進的なモデルでさえ、わずかな成功しか得られませんでした。
マルチタスク、マルチスケールのポストトレーニング戦略を採用することで、IITC タスクにおける MLLM の堅牢なベースラインを設定し、画像関連付けで $85.8\%$ の精度率と $0.508$ の Rouge スコアを達成しました。
これらの結果は、微妙な画像とテキストの理解のための MLLM 機能の向上における私たちのデータセットの有効性を検証します。
要約(オリジナル)
The swift progress of Multi-modal Large Models (MLLMs) has showcased their impressive ability to tackle tasks blending vision and language. Yet, most current models and benchmarks cater to scenarios with a narrow scope of visual and textual contexts. These models often fall short when faced with complex comprehension tasks, which involve navigating through a plethora of irrelevant and potentially misleading information in both text and image forms. To bridge this gap, we introduce a new, more demanding task known as Interleaved Image-Text Comprehension (IITC). This task challenges models to discern and disregard superfluous elements in both images and text to accurately answer questions and to follow intricate instructions to pinpoint the relevant image. In support of this task, we further craft a new VEGA dataset, tailored for the IITC task on scientific content, and devised a subtask, Image-Text Association (ITA), to refine image-text correlation skills. Our evaluation of four leading closed-source models, as well as various open-source models using VEGA, underscores the rigorous nature of IITC. Even the most advanced models, such as Gemini-1.5-pro and GPT4V, only achieved modest success. By employing a multi-task, multi-scale post-training strategy, we have set a robust baseline for MLLMs on the IITC task, attaining an $85.8\%$ accuracy rate in image association and a $0.508$ Rouge score. These results validate the effectiveness of our dataset in improving MLLMs capabilities for nuanced image-text comprehension.
arxiv情報
著者 | Chenyu Zhou,Mengdan Zhang,Peixian Chen,Chaoyou Fu,Yunhang Shen,Xiawu Zheng,Xing Sun,Rongrong Ji |
発行日 | 2024-06-14 17:59:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google