Recognize Any Regions

要約

オープンワールドの物体検出など、制約のない画像内の個々の領域またはパッチのセマンティクスを理解することは、コンピューター ビジョンにおいて重要かつ困難なタスクとなります。
CLIP のような強力な画像レベルのビジョン言語 (ViL) 基盤モデルの成功に基づいて、最近の取り組みでは、領域ラベルのペアの広範なコレクションを使用して対照的なモデルを最初からトレーニングするか、出力を調整することで、その機能を活用しようとしています。
領域の提案を画像レベルで表現した検出モデル。
目覚ましい進歩にもかかわらず、これらのアプローチは、計算負荷の高いトレーニング要件、データノイズの影響を受けやすいこと、およびコンテキスト情報の欠如によって悩まされています。
これらの制限に対処するために、ローカリゼーションとセマンティクスにおけるそれぞれの強みを活用して、既製の基盤モデルの相乗効果の可能性を探ります。
我々は、RegionSpot という名前の、新しく汎用的で効率的な領域認識アーキテクチャを導入します。これは、ローカライゼーション基盤モデル (SAM など) からの位置認識ローカライゼーション知識と、ViL モデル (CLIP など) から抽出されたセマンティック情報を統合するように設計されています。
トレーニングのオーバーヘッドを最小限に抑えながら、事前トレーニングされた知識を最大限に活用するために、両方の基礎モデルを凍結したままにして、軽量のアテンションベースの知識統合モジュールのみに最適化の取り組みを集中させます。
オープンワールドの物体認識のコンテキストにおける広範な実験を通じて、当社の RegionSpot は、従来の代替品と比較して大幅なパフォーマンスの向上を実証するとともに、大幅な計算量の節約も実現します。
たとえば、8 つの V100 GPU を使用して、1 日で 300 万のデータを使用してモデルをトレーニングします。
私たちのモデルは平均平均精度 (mAP) で GLIP を 6.5 % 上回っており、より困難で希少なカテゴリではさらに 14.8 % 大きなマージンを持っています。

要約(オリジナル)

Understanding the semantics of individual regions or patches within unconstrained images, such as in open-world object detection, represents a critical yet challenging task in computer vision. Building on the success of powerful image-level vision-language (ViL) foundation models like CLIP, recent efforts have sought to harness their capabilities by either training a contrastive model from scratch with an extensive collection of region-label pairs or aligning the outputs of a detection model with image-level representations of region proposals. Despite notable progress, these approaches are plagued by computationally intensive training requirements, susceptibility to data noise, and deficiency in contextual information. To address these limitations, we explore the synergistic potential of off-the-shelf foundation models, leveraging their respective strengths in localization and semantics. We introduce a novel, generic, and efficient region recognition architecture, named RegionSpot, designed to integrate position-aware localization knowledge from a localization foundation model (e.g., SAM) with semantic information extracted from a ViL model (e.g., CLIP). To fully exploit pretrained knowledge while minimizing training overhead, we keep both foundation models frozen, focusing optimization efforts solely on a lightweight attention-based knowledge integration module. Through extensive experiments in the context of open-world object recognition, our RegionSpot demonstrates significant performance improvements over prior alternatives, while also providing substantial computational savings. For instance, training our model with 3 million data in a single day using 8 V100 GPUs. Our model outperforms GLIP by 6.5 % in mean average precision (mAP), with an even larger margin by 14.8 % for more challenging and rare categories.

arxiv情報

著者 Haosen Yang,Chuofan Ma,Bin Wen,Yi Jiang,Zehuan Yuan,Xiatian Zhu
発行日 2023-11-02 16:31:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク