要約
オープンエンドの画像理解タスクは、特に視覚言語モデルの出現により、研究コミュニティから大きな注目を集めました。
Open-Vocabulary Segmentation (OVS) 手法は、固定語彙に依存せずにセマンティック セグメンテーションを実行でき、場合によっては、トレーニングや微調整を必要とせずに機能します。
ただし、OVS メソッドでは通常、ユーザーが手元のタスクまたはデータセットに基づいて語彙を指定する必要があります。
この論文では、\textit{自動語彙セマンティック セグメンテーション (AVS)} を紹介します。これにより、セグメンテーション用のオブジェクト カテゴリを事前に定義する必要がなくなり、オープンエンドの画像理解を促進できます。
私たちのアプローチは、強化された BLIP 埋め込みを使用して関連するクラス名を自律的に識別するフレームワークを提供し、その後のセグメンテーションに利用されます。
オープンエンドのオブジェクト カテゴリの予測を固定のグラウンド トゥルースと直接比較できないことを考慮して、自動生成されたクラス名とそれに対応するセグメントを効率的に評価する大規模言語モデル ベースの自動語彙評価器 (LAVE) を開発します。
私たちのメソッドは、PASCAL VOC と Context、ADE20K、Cityscapes for AVS などのデータセットに新しいベンチマークを設定し、指定されたクラス名を必要とする OVS メソッドに匹敵するパフォーマンスを示します。
要約(オリジナル)
Open-ended image understanding tasks gained significant attention from the research community, particularly with the emergence of Vision-Language Models. Open-Vocabulary Segmentation (OVS) methods are capable of performing semantic segmentation without relying on a fixed vocabulary, and in some cases, they operate without the need for training or fine-tuning. However, OVS methods typically require users to specify the vocabulary based on the task or dataset at hand. In this paper, we introduce \textit{Auto-Vocabulary Semantic Segmentation (AVS)}, advancing open-ended image understanding by eliminating the necessity to predefine object categories for segmentation. Our approach, \ours, presents a framework that autonomously identifies relevant class names using enhanced BLIP embeddings, which are utilized for segmentation afterwards. Given that open-ended object category predictions cannot be directly compared with a fixed ground truth, we develop a Large Language Model-based Auto-Vocabulary Evaluator (LAVE) to efficiently evaluate the automatically generated class names and their corresponding segments. Our method sets new benchmarks on datasets such as PASCAL VOC and Context, ADE20K, and Cityscapes for AVS and showcases competitive performance to OVS methods that require specified class names.
arxiv情報
著者 | Osman Ülger,Maksymilian Kulicki,Yuki Asano,Martin R. Oswald |
発行日 | 2024-03-20 16:11:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google