要約
マルチモーダル大規模言語モデル (MLLM) は、多様な視覚言語タスクの認知フレームワークとして大規模言語モデルを活用します。
最近では、MLLM に視覚認識能力とグラウンディング能力を装備する取り組みが行われています。
ただし、きめの細かいピクセルレベルの認識を提供し、テキスト固有の入力を超えてインタラクションを拡張するには、まだギャップが残っています。
この研究では、テキスト、ボックス、画像、オーディオなどのマルチモダリティ参照からピクセルごとのオブジェクトの認識と自然言語の記述を生成できる一般的な MLLM モデルである {\bf{AnyRef}} を提案します。
この革新により、ユーザーは、モダリティ固有の設計を行わずに、テキストや地域のプロンプトを超えて、より柔軟にモデルに取り組むことができるようになります。
私たちが提案するリフォーカス メカニズムを通じて、生成されたグラウンディング出力は参照オブジェクトにより適切に焦点を合わせるように誘導され、追加のピクセル レベルの監視が暗黙的に組み込まれます。
この単純な変更では、LLM の推論中に生成されたアテンション スコアを利用し、追加の計算の必要性を排除しながら、グラウンディング マスクと参照式の両方でパフォーマンスの向上を示します。
公開されているトレーニング データのみを使用して、私たちのモデルは、多様なモダリティ参照セグメンテーションや領域レベルの参照表現生成など、複数のベンチマークにわたって最先端の結果を達成します。
要約(オリジナル)
Multimodal Large Language Model (MLLMs) leverages Large Language Models as a cognitive framework for diverse visual-language tasks. Recent efforts have been made to equip MLLMs with visual perceiving and grounding capabilities. However, there still remains a gap in providing fine-grained pixel-level perceptions and extending interactions beyond text-specific inputs. In this work, we propose {\bf{AnyRef}}, a general MLLM model that can generate pixel-wise object perceptions and natural language descriptions from multi-modality references, such as texts, boxes, images, or audio. This innovation empowers users with greater flexibility to engage with the model beyond textual and regional prompts, without modality-specific designs. Through our proposed refocusing mechanism, the generated grounding output is guided to better focus on the referenced object, implicitly incorporating additional pixel-level supervision. This simple modification utilizes attention scores generated during the inference of LLM, eliminating the need for extra computations while exhibiting performance enhancements in both grounding masks and referring expressions. With only publicly available training data, our model achieves state-of-the-art results across multiple benchmarks, including diverse modality referring segmentation and region-level referring expression generation.
arxiv情報
著者 | Junwen He,Yifan Wang,Lijun Wang,Huchuan Lu,Jun-Yan He,Jin-Peng Lan,Bin Luo,Xuansong Xie |
発行日 | 2024-03-25 12:45:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google