Leveraging Confident Image Regions for Source-Free Domain-Adaptive Object Detection

要約

ソースフリーのドメイン適応オブジェクト検出は興味深いトピックですが、ほとんど取り上げられていません。
これは、適応中にソース データに頼ることなく、ソースで事前トレーニングされた検出器を個別のターゲット ドメインに適応させることを目的としています。
これまでのところ、ソースフリーのドメイン適応型物体検出に合わせたデータ拡張スキームはありません。
この目的を達成するために、この論文では、検出器が自信を持っているターゲット画像領域を切り出し、それぞれの擬似ラベルとともにそれらを拡張し、それらを結合して検出器を適応させるための困難なターゲット画像に結合する、新しいデータ拡張アプローチを紹介します。
適応中はソース データにアクセスできないため、教師と生徒の学習パラダイム内でアプローチを実装し、適応手順中にモデルが崩壊しないようにします。
私たちは交通シーンの 3 つの適応ベンチマークでアプローチを評価し、そのうちの 2 つで新しい最先端のスコアを付けました。

要約(オリジナル)

Source-free domain-adaptive object detection is an interesting but scarcely addressed topic. It aims at adapting a source-pretrained detector to a distinct target domain without resorting to source data during adaptation. So far, there is no data augmentation scheme tailored to source-free domain-adaptive object detection. To this end, this paper presents a novel data augmentation approach that cuts out target image regions where the detector is confident, augments them along with their respective pseudo-labels, and joins them into a challenging target image to adapt the detector. As the source data is out of reach during adaptation, we implement our approach within a teacher-student learning paradigm to ensure that the model does not collapse during the adaptation procedure. We evaluated our approach on three adaptation benchmarks of traffic scenes, scoring new state-of-the-art on two of them.

arxiv情報

著者 Mohamed Lamine Mekhalfi,Davide Boscaini,Fabio Poiesi
発行日 2025-01-17 09:55:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク