Region Proposal Network Pre-Training Helps Label-Efficient Object Detection

要約

インスタンス識別の口実タスクに基づく自己監視型の事前トレーニングは、ラベル効率の高いオブジェクト検出の最近の進歩に拍車をかけています。
ただし、既存の研究では、特徴抽出ネットワークのみを事前トレーニングして、下流の検出タスクの転送可能な表現を学習することに焦点を当てています。
これにより、微調整フェーズで複数の検出固有のモジュールを最初からトレーニングする必要が生じます。
一般的な検出固有のモジュールである領域提案ネットワーク (RPN) は、多段検出器のローカリゼーション エラーを減らすために事前にトレーニングすることができると主張します。
この作業では、下流のオブジェクト検出パフォーマンスを効率的に改善するために、RPN の効果的な事前トレーニングを提供する単純な口実タスクを提案します。
ベンチマークのオブジェクト検出タスクと、インスタンスのセグメンテーションや少数ショット検出などの追加のダウンストリーム タスクに対するアプローチの有効性を評価します。
RPN事前トレーニングなしの多段階検出器と比較して、私たちのアプローチは下流のタスクパフォ​​ーマンスを一貫して改善することができ、ラベルが少ない設定で最大の利益が見られます.

要約(オリジナル)

Self-supervised pre-training, based on the pretext task of instance discrimination, has fueled the recent advance in label-efficient object detection. However, existing studies focus on pre-training only a feature extractor network to learn transferable representations for downstream detection tasks. This leads to the necessity of training multiple detection-specific modules from scratch in the fine-tuning phase. We argue that the region proposal network (RPN), a common detection-specific module, can additionally be pre-trained towards reducing the localization error of multi-stage detectors. In this work, we propose a simple pretext task that provides an effective pre-training for the RPN, towards efficiently improving downstream object detection performance. We evaluate the efficacy of our approach on benchmark object detection tasks and additional downstream tasks, including instance segmentation and few-shot detection. In comparison with multi-stage detectors without RPN pre-training, our approach is able to consistently improve downstream task performance, with largest gains found in label-scarce settings.

arxiv情報

著者 Linus Ericsson,Nanqing Dong,Yongxin Yang,Ales Leonardis,Steven McDonagh
発行日 2022-11-16 16:28:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク