要約
特徴アライメントに基づくドメイン適応物体検出 (DAOD) 手法は目覚ましい進歩を遂げていますが、それらはソース バイアスの問題を無視しています。つまり、検出器はソース固有の知識をより多く取得する傾向があり、ターゲット ドメインでの一般化機能を妨げています。
さらに、これらの方法は、ソース ドメインと比較してターゲット ドメインで一貫した分類と位置特定を達成するという、より困難な課題に直面しています。
これらの課題を克服するために、私たちは、DAOD 用の新しい抽出ベースのソース デバイアス (DSD) フレームワークを提案します。これは、事前トレーニングされた教師モデルからドメインに依存しない知識を抽出し、両方のドメインで検出器のパフォーマンスを向上させることができます。
さらに、ターゲット関連オブジェクト ローカリゼーション ネットワーク (TROLN) を設計します。これにより、ソースおよびターゲット スタイルの混合データからターゲット関連のローカリゼーション情報をマイニングできます。
したがって、これらの情報を新しいローカリゼーション表現に定式化し、テスト段階で分類スコアをさらに改良し、分類とローカリゼーションの間の調和を達成する、ドメイン認識一貫性強化 (DCE) 戦略を提案します。
この方法の有効性を実証するために広範な実験が行われ、強力なベースラインを一貫して大幅に改善し、既存のアライメントベースの作業を上回りました。
要約(オリジナル)
Though feature-alignment based Domain Adaptive Object Detection (DAOD) methods have achieved remarkable progress, they ignore the source bias issue, i.e., the detector tends to acquire more source-specific knowledge, impeding its generalization capabilities in the target domain. Furthermore, these methods face a more formidable challenge in achieving consistent classification and localization in the target domain compared to the source domain. To overcome these challenges, we propose a novel Distillation-based Source Debiasing (DSD) framework for DAOD, which can distill domain-agnostic knowledge from a pre-trained teacher model, improving the detector’s performance on both domains. In addition, we design a Target-Relevant Object Localization Network (TROLN), which can mine target-related localization information from source and target-style mixed data. Accordingly, we present a Domain-aware Consistency Enhancing (DCE) strategy, in which these information are formulated into a new localization representation to further refine classification scores in the testing stage, achieving a harmonization between classification and localization. Extensive experiments have been conducted to manifest the effectiveness of this method, which consistently improves the strong baseline by large margins, outperforming existing alignment-based works.
arxiv情報
著者 | Yongchao Feng,Shiwei Li,Yingjie Gao,Ziyue Huang,Yanan Zhang,Qingjie Liu,Yunhong Wang |
発行日 | 2024-05-17 09:36:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google