Optimization Efficient Open-World Visual Region Recognition

要約

オープンワールドのオブジェクト検出など、制約のない画像の個々の領域またはパッチのセマンティクスを理解することは、コンピューター ビジョンにおいて依然として重要かつ困難な課題です。
CLIP のような強力な画像レベルのビジョン言語 (ViL) 基盤モデルの成功に基づいて、最近の取り組みでは、領域ラベルのペアの広範なコレクションを使用して対照的なモデルを最初からトレーニングするか、出力を調整することで、その機能を活用しようとしています。
領域の提案を画像レベルで表現した検出モデル。
顕著な進歩にもかかわらず、これらのアプローチは、計算集約的なトレーニング要件、データノイズの影響を受けやすいこと、およびコンテキスト情報の欠如によって悩まされています。
これらの制限に対処するために、ローカリゼーションとセマンティクスにおけるそれぞれの強みを活用して、既製の基盤モデルの相乗効果の可能性を探ります。
我々は、RegionSpot という名前の斬新で汎用的で効率的なアーキテクチャを導入します。このアーキテクチャは、ローカリゼーション基盤モデル (SAM など) からの位置認識ローカリゼーション知識と ViL モデル (CLIP など) のセマンティック情報を統合するように設計されています。
トレーニングのオーバーヘッドを最小限に抑えながら、事前トレーニングされた知識を最大限に活用するために、両方の基礎モデルを凍結したままにして、軽量のアテンションベースの知識統合モジュールのみに最適化の取り組みを集中させます。
オープンワールドの物体認識における広範な実験により、当社の RegionSpot は、大幅な計算量の節約とともに、以前の代替案と比較して大幅なパフォーマンス向上を達成することが示されています (例: 8 つの V100 GPU を使用して 1 日に 300 万のデータでモデルをトレーニングする)。
RegionSpot は、LVIS val セットの mAP で 2.9 AP だけ GLIP-L を上回り、より困難で希少なカテゴリーでは 13.1 AP というさらに大きなマージンがあり、ODinW では 2.5 AP の増加があります。
さらに、LVIS ミニマル セットのレア カテゴリでは GroundingDINO-L を 11.0 AP 上回っています。

要約(オリジナル)

Understanding the semantics of individual regions or patches of unconstrained images, such as open-world object detection, remains a critical yet challenging task in computer vision. Building on the success of powerful image-level vision-language (ViL) foundation models like CLIP, recent efforts have sought to harness their capabilities by either training a contrastive model from scratch with an extensive collection of region-label pairs or aligning the outputs of a detection model with image-level representations of region proposals. Despite notable progress, these approaches are plagued by computationally intensive training requirements, susceptibility to data noise, and deficiency in contextual information. To address these limitations, we explore the synergistic potential of off-the-shelf foundation models, leveraging their respective strengths in localization and semantics. We introduce a novel, generic, and efficient architecture, named RegionSpot, designed to integrate position-aware localization knowledge from a localization foundation model (e.g., SAM) with semantic information from a ViL model (e.g., CLIP). To fully exploit pretrained knowledge while minimizing training overhead, we keep both foundation models frozen, focusing optimization efforts solely on a lightweight attention-based knowledge integration module. Extensive experiments in open-world object recognition show that our RegionSpot achieves significant performance gain over prior alternatives, along with substantial computational savings (e.g., training our model with 3 million data in a single day using 8 V100 GPUs). RegionSpot outperforms GLIP-L by 2.9 in mAP on LVIS val set, with an even larger margin of 13.1 AP for more challenging and rare categories, and a 2.5 AP increase on ODinW. Furthermore, it exceeds GroundingDINO-L by 11.0 AP for rare categories on the LVIS minival set.

arxiv情報

著者 Haosen Yang,Chuofan Ma,Bin Wen,Yi Jiang,Zehuan Yuan,Xiatian Zhu
発行日 2024-06-13 16:28:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク