Plug and Play Active Learning for Object Detection

要約

物体検出のためにデータセットにアノテーションを付けるのは、費用と時間のかかる作業です。
この負担を最小限に抑えるために、アクティブ ラーニング (AL) 技術を使用して、制約のある「アノテーション予算」内でアノテーション用に最も有益なサンプルを選択します。
従来の AL 戦略は通常、クエリ サンプリングのモデルの不確実性やサンプルの多様性に依存していますが、より高度な手法では、パフォーマンスを向上させるために AL 固有のオブジェクト検出器アーキテクチャの開発に重点が置かれています。
ただし、これらの特殊なアプローチは、統合に多大なエンジニアリング作業が必要となるため、さまざまな物体検出器にすぐに適用することはできません。
この課題を克服するために、物体検出のためのシンプルで効果的な AL 戦略であるプラグ アンド プレイ アクティブ ラーニング (PPAL) を導入します。
PPAL は、不確実性ベースのサンプリング フェーズとダイバーシティ ベースのサンプリング フェーズからなる 2 段階の方法です。
最初の段階では、難易度調整された不確実性サンプリングでは、分類と位置特定の困難の両方を組み合わせたカテゴリごとの難易度係数を利用してインスタンスの不確実性を再重み付けし、そこから後続の多様性ベースのサンプリングの候補プールをサンプリングします。
第 2 段階では、マルチインスタンス イメージの類似性をインスタンスの類似性のアンサンブルとしてより適切に計算するために、カテゴリ条件付きマッチング類似性を提案します。これは、最終的な AL クエリをサンプリングするために k-Means++ アルゴリズムによって使用されます。
PPAL は、モデル アーキテクチャや検出器トレーニング パイプラインに変更を加えません。
したがって、さまざまな物体検出器に簡単に一般化できます。
さまざまな検出器アーキテクチャを使用して、MS-COCO および Pascal VOC データセットで PPAL のベンチマークを行い、私たちの方法が以前の研究よりも大幅に優れていることを示します。
コードは https://github.com/ChenhongyiYang/PPAL で入手できます。

要約(オリジナル)

Annotating datasets for object detection is an expensive and time-consuming endeavor. To minimize this burden, active learning (AL) techniques are employed to select the most informative samples for annotation within a constrained ‘annotation budget’. Traditional AL strategies typically rely on model uncertainty or sample diversity for query sampling, while more advanced methods have focused on developing AL-specific object detector architectures to enhance performance. However, these specialized approaches are not readily adaptable to different object detectors due to the significant engineering effort required for integration. To overcome this challenge, we introduce Plug and Play Active Learning (PPAL), a simple and effective AL strategy for object detection. PPAL is a two-stage method comprising uncertainty-based and diversity-based sampling phases. In the first stage, our Difficulty Calibrated Uncertainty Sampling leverage a category-wise difficulty coefficient that combines both classification and localisation difficulties to re-weight instance uncertainties, from which we sample a candidate pool for the subsequent diversity-based sampling. In the second stage, we propose Category Conditioned Matching Similarity to better compute the similarities of multi-instance images as ensembles of their instance similarities, which is used by the k-Means++ algorithm to sample the final AL queries. PPAL makes no change to model architectures or detector training pipelines; hence it can be easily generalized to different object detectors. We benchmark PPAL on the MS-COCO and Pascal VOC datasets using different detector architectures and show that our method outperforms prior work by a large margin. Code is available at https://github.com/ChenhongyiYang/PPAL

arxiv情報

著者 Chenhongyi Yang,Lichao Huang,Elliot J. Crowley
発行日 2024-03-14 15:35:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク