Active Learning Strategies for Weakly-supervised Object Detection

要約

弱い注釈でトレーニングされたオブジェクト検出器は、完全に監視された対応物の手頃な代替手段です。
ただし、それらの間には依然として大きなパフォーマンスのギャップがあります。
新しいアクティブラーニングである「ボックスインボックス」(BiB)を使用してトレーニングセットから自動的に選択されたいくつかの完全に注釈が付けられたサンプルを使用して、ベースの事前トレーニングされた弱く監視された検出器を微調整することによって、このギャップを狭めることを提案します
弱く監視された検出器の十分に文書化された故障モードに対処するために特別に設計された戦略。
VOC07およびCOCOベンチマークでの実験は、BiBが他のアクティブラーニング手法よりも優れており、クラスごとに数個の完全に注釈が付けられた画像のみで、ベースの弱く監視された検出器のパフォーマンスを大幅に改善することを示しています。
BiBは、VOC07の完全に注釈が付けられた画像のわずか10%で、完全に監視されたFast RCNNのパフォーマンスの97%に達します。
COCOでは、クラスごとに平均10個の完全に注釈が付けられた画像、または同等にトレーニングセットの1%を使用して、BiBは、弱教師あり検出器と完全教師あり高速RCNNの間のパフォーマンスギャップ(AP内)を70%以上削減します。
、パフォーマンスとデータ効率の間の適切なトレードオフを示しています。
私たちのコードはhttps://github.com/huyvvo/BiBで公開されています。

要約(オリジナル)

Object detectors trained with weak annotations are affordable alternatives to fully-supervised counterparts. However, there is still a significant performance gap between them. We propose to narrow this gap by fine-tuning a base pre-trained weakly-supervised detector with a few fully-annotated samples automatically selected from the training set using “box-in-box” (BiB), a novel active learning strategy designed specifically to address the well-documented failure modes of weakly-supervised detectors. Experiments on the VOC07 and COCO benchmarks show that BiB outperforms other active learning techniques and significantly improves the base weakly-supervised detector’s performance with only a few fully-annotated images per class. BiB reaches 97% of the performance of fully-supervised Fast RCNN with only 10% of fully-annotated images on VOC07. On COCO, using on average 10 fully-annotated images per class, or equivalently 1% of the training set, BiB also reduces the performance gap (in AP) between the weakly-supervised detector and the fully-supervised Fast RCNN by over 70%, showing a good trade-off between performance and data efficiency. Our code is publicly available at https://github.com/huyvvo/BiB.

arxiv情報

著者 Huy V. Vo,Oriane Siméoni,Spyros Gidaris,Andrei Bursuc,Patrick Pérez,Jean Ponce
発行日 2022-07-25 12:22:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク