要約
教師なしドメイン適応オブジェクト検出の自己トレーニングは困難な作業であり、そのパフォーマンスは疑似ボックスの品質に大きく依存します。
有望な結果にもかかわらず、以前の研究は、自己訓練中の疑似ボックスの不確実性をほとんど見落としていました。
この論文では、確率的教師(PT)と呼ばれるシンプルで効果的なフレームワークを紹介します。これは、徐々に進化する教師からラベルのないターゲットデータの不確実性をキャプチャし、相互に有益な方法で生徒の学習をガイドすることを目的としています。
具体的には、不確実性に基づく整合性トレーニングを活用して、複雑な信頼しきい値を介して疑似ボックスをフィルタリングするのではなく、分類の適応とローカリゼーションの適応を促進することを提案します。
さらに、アンカーは学習可能なパラメータと見なすことができるため、ローカリゼーション適応と並行してアンカー適応を実行します。
このフレームワークとともに、不確実性に基づく自己トレーニングをさらに容易にするために、新しいエントロピー焦点損失(EFL)も提示します。
EFLを搭載したPTは、以前のすべてのベースラインを大幅に上回り、新しい最先端技術を実現します。
要約(オリジナル)
Self-training for unsupervised domain adaptive object detection is a challenging task, of which the performance depends heavily on the quality of pseudo boxes. Despite the promising results, prior works have largely overlooked the uncertainty of pseudo boxes during self-training. In this paper, we present a simple yet effective framework, termed as Probabilistic Teacher (PT), which aims to capture the uncertainty of unlabeled target data from a gradually evolving teacher and guides the learning of a student in a mutually beneficial manner. Specifically, we propose to leverage the uncertainty-guided consistency training to promote classification adaptation and localization adaptation, rather than filtering pseudo boxes via an elaborate confidence threshold. In addition, we conduct anchor adaptation in parallel with localization adaptation, since anchor can be regarded as a learnable parameter. Together with this framework, we also present a novel Entropy Focal Loss (EFL) to further facilitate the uncertainty-guided self-training. Equipped with EFL, PT outperforms all previous baselines by a large margin and achieve new state-of-the-arts.
arxiv情報
著者 | Meilin Chen,Weijie Chen,Shicai Yang,Jie Song,Xinchao Wang,Lei Zhang,Yunfeng Yan,Donglian Qi,Yueting Zhuang,Di Xie,Shiliang Pu |
発行日 | 2022-06-13 16:24:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google