Detect, Augment, Compose, and Adapt: Four Steps for Unsupervised Domain Adaptation in Object Detection

要約

教師なしドメイン適応 (UDA) は、ソースでトレーニングされた検出器を注釈付きデータのないターゲット ドメインに適応させる場合、オブジェクト検出において重要な役割を果たします。
このペーパーでは、自己監視を活用し、ソース データとターゲット データを同時にトレーニングする、新しく効果的な 4 ステップの UDA アプローチを提案します。
私たちは自己教師あり学習を活用して、ターゲット領域におけるグラウンドトゥルースの欠如を軽減します。
私たちの方法は次のステップで構成されます。(1) 各ターゲット画像内で最も信頼性の高い検出セットを持つ領域を識別します。これは擬似ラベルとして機能します。
(2)識別された領域をトリミングし、その拡張バージョンのコレクションを生成する。
(3)後者を合成画像に結合する。
(4) 合成されたイメージを使用して、ネットワークをターゲット ドメインに適応させます。
クロスカメラ、クロスウェザー、および合成と実際のシナリオの下での広範な実験を通じて、当社のアプローチは最先端のパフォーマンスを達成し、平均平均精度 (mAP) の点で最も近い競合他社よりも 2% 以上向上しました。
)。
コードは https://github.com/MohamedTEV/DACA で入手できます。

要約(オリジナル)

Unsupervised domain adaptation (UDA) plays a crucial role in object detection when adapting a source-trained detector to a target domain without annotated data. In this paper, we propose a novel and effective four-step UDA approach that leverages self-supervision and trains source and target data concurrently. We harness self-supervised learning to mitigate the lack of ground truth in the target domain. Our method consists of the following steps: (1) identify the region with the highest-confidence set of detections in each target image, which serve as our pseudo-labels; (2) crop the identified region and generate a collection of its augmented versions; (3) combine these latter into a composite image; (4) adapt the network to the target domain using the composed image. Through extensive experiments under cross-camera, cross-weather, and synthetic-to-real scenarios, our approach achieves state-of-the-art performance, improving upon the nearest competitor by more than 2% in terms of mean Average Precision (mAP). The code is available at https://github.com/MohamedTEV/DACA.

arxiv情報

著者 Mohamed L. Mekhalfi,Davide Boscaini,Fabio Poiesi
発行日 2023-08-29 14:48:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク