MAPS: A Noise-Robust Progressive Learning Approach for Source-Free Domain Adaptive Keypoint Detection

要約

既存のクロスドメイン キーポイント検出方法では、適応中に常にソース データにアクセスする必要があります。これは、データ プライバシー法に違反し、深刻なセキュリティ上の懸念を引き起こす可能性があります。
代わりに、このホワイト ペーパーでは、よく訓練されたソース モデルのみがターゲット ドメインに提供される、ソースフリー ドメイン適応キーポイント検出と呼ばれる現実的な問題設定を検討します。
困難な問題については、まず、データ拡張とネットワーク アンサンブルの下で予測を安定させることにより、教師と生徒の学習ベースラインを構築します。
これに基づいて、トレーニング中にラベル付けされていないターゲット データのノイズの多い疑似ラベルを完全に活用するために、統一されたアプローチである Mixup Augmentation and Progressive Selection (MAPS) をさらに提案します。
一方では、MAPS はモデルを正則化して、自己混合増強を介してターゲット サンプル間の単純な線形動作を優先し、モデルがノイズの多い予測に過剰に適合するのを防ぎます。
一方、MAPS はセルフペース学習パラダイムを採用し、トレーニング プロセスに「簡単」から「難しい」まで疑似ラベル付けされたサンプルを徐々に選択して、ノイズの蓄積を減らします。
4 つのキーポイント検出データセットの結果は、MAPS がベースラインよりも優れており、以前のソースフリーではない対応物と比較して同等またはそれ以上の結果を達成していることを示しています。

要約(オリジナル)

Existing cross-domain keypoint detection methods always require accessing the source data during adaptation, which may violate the data privacy law and pose serious security concerns. Instead, this paper considers a realistic problem setting called source-free domain adaptive keypoint detection, where only the well-trained source model is provided to the target domain. For the challenging problem, we first construct a teacher-student learning baseline by stabilizing the predictions under data augmentation and network ensembles. Built on this, we further propose a unified approach, Mixup Augmentation and Progressive Selection (MAPS), to fully exploit the noisy pseudo labels of unlabeled target data during training. On the one hand, MAPS regularizes the model to favor simple linear behavior in-between the target samples via self-mixup augmentation, preventing the model from over-fitting to noisy predictions. On the other hand, MAPS employs the self-paced learning paradigm and progressively selects pseudo-labeled samples from `easy’ to `hard’ into the training process to reduce noise accumulation. Results on four keypoint detection datasets show that MAPS outperforms the baseline and achieves comparable or even better results in comparison to previous non-source-free counterparts.

arxiv情報

著者 Yuhe Ding,Jian Liang,Bo Jiang,Aihua Zheng,Ran He
発行日 2023-02-09 12:06:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク