Exploiting Low-confidence Pseudo-labels for Source-free Object Detection

要約

ソースフリー オブジェクト検出 (SFOD) は、ラベル付きソース データにアクセスせずに、ソースでトレーニングされた検出器をラベルなしのターゲット ドメインに適応させることを目的としています。
現在の SFOD 方法は、適応フェーズでしきい値ベースの擬似ラベル アプローチを利用していますが、これは通常、信頼性の高い擬似ラベルに限定されており、情報の損失が生じます。
この問題に対処するために、高信頼しきい値と低信頼しきい値を導入することで、擬似ラベルを最大限に活用する新しいアプローチを提案します。
具体的には、高しきい値を超える信頼スコアを持つ擬似ラベルが従来どおり使用され、低しきい値と高しきい値の間の擬似ラベルは低信頼擬似ラベル利用 (LPU) モジュールを使用して活用されます。
LPU モジュールは、提案ソフト トレーニング (PST) とローカル空間対照学習 (LSCL) で構成されます。
PST は、ソフト トレーニング用の提案のソフト ラベルを生成します。これにより、ラベルの不一致の問題が軽減されます。
LSCL は、提案の局所的な空間関係を利用して、空間的に隣接する提案を区別するモデルの能力を向上させ、それによって表現機能をさらに最適化します。
2 つのコンポーネントを組み合わせることで、信頼性の低い疑似ラベルを利用する際に従来の方法が直面する課題を克服できます。
5 つのクロスドメイン物体検出ベンチマークに関する広範な実験により、私たちが提案した方法が以前の SFOD 方法よりも優れており、最先端のパフォーマンスを達成していることが実証されています。

要約(オリジナル)

Source-free object detection (SFOD) aims to adapt a source-trained detector to an unlabeled target domain without access to the labeled source data. Current SFOD methods utilize a threshold-based pseudo-label approach in the adaptation phase, which is typically limited to high-confidence pseudo-labels and results in a loss of information. To address this issue, we propose a new approach to take full advantage of pseudo-labels by introducing high and low confidence thresholds. Specifically, the pseudo-labels with confidence scores above the high threshold are used conventionally, while those between the low and high thresholds are exploited using the Low-confidence Pseudo-labels Utilization (LPU) module. The LPU module consists of Proposal Soft Training (PST) and Local Spatial Contrastive Learning (LSCL). PST generates soft labels of proposals for soft training, which can mitigate the label mismatch problem. LSCL exploits the local spatial relationship of proposals to improve the model’s ability to differentiate between spatially adjacent proposals, thereby optimizing representational features further. Combining the two components overcomes the challenges faced by traditional methods in utilizing low-confidence pseudo-labels. Extensive experiments on five cross-domain object detection benchmarks demonstrate that our proposed method outperforms the previous SFOD methods, achieving state-of-the-art performance.

arxiv情報

著者 Zhihong Chen,Zilei Wang,Yixin Zhang
発行日 2023-10-19 12:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク