Confidence-based Visual Dispersal for Few-shot Unsupervised Domain Adaptation

要約

教師なしドメイン適応は、完全にラベル付けされたソース ドメインからラベル付けされていないターゲット ドメインに知識を転送することを目的としています。
ただし、現実のシナリオでは、アノテーションの難しさと費用の高さにより、ソース ドメインであってもラベル付きデータを豊富に提供することは不可能な場合があります。
この問題に対処するために、最近の研究では、少数のソース サンプルのみがラベル付けされる少数ショット教師なしドメイン適応 (FUDA) が考慮されており、自己教師あり学習手法を介して知識伝達が行われています。
しかし、既存の方法では一般に、まばらなラベル設定が転送のための信頼できるソース知識の学習を妨げていることを見落としています。
さらに、ターゲット サンプルの学習難易度の差は異なりますが無視され、ハード ターゲット サンプルの分類が不十分なままになります。
両方の欠陥に対処するために、この論文では、FUDA のための新しい信頼ベースの視覚分散転移学習法 (C-VisDiT) を提案します。
具体的には、C-VisDiT は、モデル適応のために信頼性の高いソース知識のみを転送するドメイン間視覚分散戦略と、難しいターゲット サンプルの学習を簡単なサンプルでガイドするドメイン内視覚分散戦略で構成されます。
私たちは、Office-31、Office-Home、VisDA-C、および DomainNet ベンチマーク データセットに対して広範な実験を実施し、その結果、提案された C-VisDiT が最先端の FUDA 手法を大幅に上回ることが実証されました。
私たちのコードは https://github.com/Bostoncake/C-VisDiT で入手できます。

要約(オリジナル)

Unsupervised domain adaptation aims to transfer knowledge from a fully-labeled source domain to an unlabeled target domain. However, in real-world scenarios, providing abundant labeled data even in the source domain can be infeasible due to the difficulty and high expense of annotation. To address this issue, recent works consider the Few-shot Unsupervised Domain Adaptation (FUDA) where only a few source samples are labeled, and conduct knowledge transfer via self-supervised learning methods. Yet existing methods generally overlook that the sparse label setting hinders learning reliable source knowledge for transfer. Additionally, the learning difficulty difference in target samples is different but ignored, leaving hard target samples poorly classified. To tackle both deficiencies, in this paper, we propose a novel Confidence-based Visual Dispersal Transfer learning method (C-VisDiT) for FUDA. Specifically, C-VisDiT consists of a cross-domain visual dispersal strategy that transfers only high-confidence source knowledge for model adaptation and an intra-domain visual dispersal strategy that guides the learning of hard target samples with easy ones. We conduct extensive experiments on Office-31, Office-Home, VisDA-C, and DomainNet benchmark datasets and the results demonstrate that the proposed C-VisDiT significantly outperforms state-of-the-art FUDA methods. Our code is available at https://github.com/Bostoncake/C-VisDiT.

arxiv情報

著者 Yizhe Xiong,Hui Chen,Zijia Lin,Sicheng Zhao,Guiguang Ding
発行日 2023-09-29 17:11:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク