要約
特徴アライメントベースのドメイン適応物体検出 (DAOD) は目覚ましい進歩を遂げていますが、ソースバイアスの問題は無視されています。つまり、アライメントされた特徴はソースドメインに対してより有利であり、次善の適応につながります。
さらに、ソース ドメインとターゲット ドメイン間のドメイン シフトの存在により、一般的な検出パイプラインにおける分類と位置特定が一貫しないという問題が悪化します。
これらの課題を克服するために、私たちは DAOD 用の新しい蒸留ベースの不偏アライメント (DUA) フレームワークを提案します。これは、トレーニング プロセス中に事前トレーニングされた教師モデルを介してソースの特徴をよりバランスのとれた位置に蒸留し、ソースのバイアスの問題を軽減します。
効果的に。
さらに、ターゲット関連の知識をマイニングして 2 つの分類不要のメトリクス (IoU と中心性) を生成できるターゲット関連オブジェクト位置特定ネットワーク (TROLN) を設計します。
したがって、これら 2 つのメトリクスを利用して分類の信頼度をさらに調整し、クロスドメイン シナリオでの分類とローカリゼーション間の調和を達成する、ドメイン対応一貫性強化 (DCE) 戦略を実装します。
この方法の有効性を実証するために広範な実験が行われ、強力なベースラインを一貫して大幅に改善し、既存のアライメントベースの作業を上回りました。
要約(オリジナル)
Though feature-alignment based Domain Adaptive Object Detection (DAOD) have achieved remarkable progress, they ignore the source bias issue, i.e. the aligned features are more favorable towards the source domain, leading to a sub-optimal adaptation. Furthermore, the presence of domain shift between the source and target domains exacerbates the problem of inconsistent classification and localization in general detection pipelines. To overcome these challenges, we propose a novel Distillation-based Unbiased Alignment (DUA) framework for DAOD, which can distill the source features towards a more balanced position via a pre-trained teacher model during the training process, alleviating the problem of source bias effectively. In addition, we design a Target-Relevant Object Localization Network (TROLN), which can mine target-related knowledge to produce two classification-free metrics (IoU and centerness). Accordingly, we implement a Domain-aware Consistency Enhancing (DCE) strategy that utilizes these two metrics to further refine classification confidences, achieving a harmonization between classification and localization in cross-domain scenarios. Extensive experiments have been conducted to manifest the effectiveness of this method, which consistently improves the strong baseline by large margins, outperforming existing alignment-based works.
arxiv情報
著者 | Yongchao Feng,Shiwei Li,Yingjie Gao,Ziyue Huang,Yanan Zhang,Qingjie Liu,Yunhong Wang |
発行日 | 2023-11-17 10:26:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google