要約
私たちは、画像とビデオの両方の領域レベルの理解を容易にするように設計されたマルチモーダル大規模言語モデルである Omni-RGPT を紹介します。
時空間次元全体で一貫した領域表現を実現するために、視覚特徴空間内のターゲット領域を強調表示する一連のトークンであるトークン マークを導入します。
これらのトークンは、領域プロンプト (ボックスやマスクなど) を使用して空間領域に直接埋め込まれ、同時にターゲットを指定するためにテキスト プロンプトに組み込まれ、ビジュアル トークンとテキスト トークン間の直接の接続を確立します。
トラックレットを必要とせずに堅牢なビデオ理解をさらにサポートするために、トークンの一貫性を利用してトークン マークをガイドする補助タスクを導入し、ビデオ全体で安定した領域解釈を可能にします。
さらに、大規模な地域レベルのビデオ命令データセット (RegVID-300k) を導入します。
Omni-RGPT は、画像およびビデオベースの常識推論ベンチマークで最先端の結果を達成するとともに、キャプションおよび参照表現理解タスクで優れたパフォーマンスを示します。
要約(オリジナル)
We present Omni-RGPT, a multimodal large language model designed to facilitate region-level comprehension for both images and videos. To achieve consistent region representation across spatio-temporal dimensions, we introduce Token Mark, a set of tokens highlighting the target regions within the visual feature space. These tokens are directly embedded into spatial regions using region prompts (e.g., boxes or masks) and simultaneously incorporated into the text prompt to specify the target, establishing a direct connection between visual and text tokens. To further support robust video understanding without requiring tracklets, we introduce an auxiliary task that guides Token Mark by leveraging the consistency of the tokens, enabling stable region interpretation across the video. Additionally, we introduce a large-scale region-level video instruction dataset (RegVID-300k). Omni-RGPT achieves state-of-the-art results on image and video-based commonsense reasoning benchmarks while showing strong performance in captioning and referring expression comprehension tasks.
arxiv情報
著者 | Miran Heo,Min-Hung Chen,De-An Huang,Sifei Liu,Subhashree Radhakrishnan,Seon Joo Kim,Yu-Chiang Frank Wang,Ryo Hachiuma |
発行日 | 2025-01-14 18:58:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google