Dynamic Retraining-Updating Mean Teacher for Source-Free Object Detection

要約

物体検出では、教師なしドメイン適応 (UDA) は、ラベル付きソース ドメインからラベルなしターゲット ドメインに知識を転送することを目的としています。
ただし、UDA はラベル付きソース データに依存しているため、プライバシー関連のシナリオへの適応性が制限されます。
この研究は、ラベル付きソース データを使用せずに、ソースでトレーニングされた検出器をラベルなしのターゲット ドメインに適応させる、ソース フリー オブジェクト検出 (SFOD) に焦点を当てています。
特に Mean Teacher (MT) フレームワークによる自己トレーニングの最近の進歩は、SFOD の導入に有望であることを示しています。
ただし、ソース監視がないため、これらのアプローチの安定性が大幅に損なわれます。
我々は 2 つの主要な問題を特定しました。(1) 生徒モデルからの不用意な更新による教師モデルの制御不能な劣化、および (2) 生徒モデルが誤った擬似ラベルからエラーを再現する傾向があり、局所最適に囚われることです。
どちらの要因も有害な循環依存性に寄与し、その結果、最近の自己トレーニング フレームワークのパフォーマンスが急速に低下します。
これらの課題に取り組むために、私たちは動的再トレーニング更新 (DRU) メカニズムを提案します。これは、学生のトレーニングと教師の更新プロセスを積極的に管理して、共進化トレーニングを実現します。
さらに、誤った疑似ラベルの影響を軽減するために、歴史的学生損失を導入します。
私たちの手法は、複数のドメイン適応ベンチマークにおける SFOD 設定において、先進的な UDA 手法と同等、あるいはそれを上回る最先端のパフォーマンスを実現します。
コードは https://github.com/lbktrinh/DRU でリリースされます。

要約(オリジナル)

In object detection, unsupervised domain adaptation (UDA) aims to transfer knowledge from a labeled source domain to an unlabeled target domain. However, UDA’s reliance on labeled source data restricts its adaptability in privacy-related scenarios. This study focuses on source-free object detection (SFOD), which adapts a source-trained detector to an unlabeled target domain without using labeled source data. Recent advancements in self-training, particularly with the Mean Teacher (MT) framework, show promise for SFOD deployment. However, the absence of source supervision significantly compromises the stability of these approaches. We identify two primary issues, (1) uncontrollable degradation of the teacher model due to inopportune updates from the student model, and (2) the student model’s tendency to replicate errors from incorrect pseudo labels, leading to it being trapped in a local optimum. Both factors contribute to a detrimental circular dependency, resulting in rapid performance degradation in recent self-training frameworks. To tackle these challenges, we propose the Dynamic Retraining-Updating (DRU) mechanism, which actively manages the student training and teacher updating processes to achieve co-evolutionary training. Additionally, we introduce Historical Student Loss to mitigate the influence of incorrect pseudo labels. Our method achieves state-of-the-art performance in the SFOD setting on multiple domain adaptation benchmarks, comparable to or even surpassing advanced UDA methods. The code will be released at https://github.com/lbktrinh/DRU

arxiv情報

著者 Trinh Le Ba Khanh,Huy-Hung Nguyen,Long Hoang Pham,Duong Nguyen-Ngoc Tran,Jae Wook Jeon
発行日 2024-07-23 14:12:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク