要約
半教師ありドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識を、ほとんどラベル付けされていないターゲットドメインに適用することを目的としています。
この論文では、SSDAのマルチレベル整合性学習(MCL)フレームワークを提案します。
具体的には、MCLは、ターゲットドメインサンプルのさまざまなビューの一貫性を3つのレベルで正規化します。(i)ドメイン間レベルでは、プロと
ターゲットサンプルのさまざまなビューの短所。
(ii)ドメイン内レベルでは、新しいクラスごとの対照的なクラスタリング損失を提案することにより、識別的でコンパクトなターゲット特徴表現の両方の学習を容易にします。
(iii)サンプルレベルでは、標準的な手法に従い、整合性ベースのセルフトレーニングを実行することで予測精度を向上させます。
経験的に、3つの人気のあるSSDAベンチマーク(VisDA2017、DomainNet、Office-Homeデータセット)でMCLフレームワークの有効性を検証しました。実験結果は、MCLフレームワークが最先端のパフォーマンスを実現していることを示しています。
要約(オリジナル)
Semi-supervised domain adaptation (SSDA) aims to apply knowledge learned from a fully labeled source domain to a scarcely labeled target domain. In this paper, we propose a Multi-level Consistency Learning (MCL) framework for SSDA. Specifically, our MCL regularizes the consistency of different views of target domain samples at three levels: (i) at inter-domain level, we robustly and accurately align the source and target domains using a prototype-based optimal transport method that utilizes the pros and cons of different views of target samples; (ii) at intra-domain level, we facilitate the learning of both discriminative and compact target feature representations by proposing a novel class-wise contrastive clustering loss; (iii) at sample level, we follow standard practice and improve the prediction accuracy by conducting a consistency-based self-training. Empirically, we verified the effectiveness of our MCL framework on three popular SSDA benchmarks, i.e., VisDA2017, DomainNet, and Office-Home datasets, and the experimental results demonstrate that our MCL framework achieves the state-of-the-art performance.
arxiv情報
著者 | Zizheng Yan,Yushuang Wu,Guanbin Li,Yipeng Qin,Xiaoguang Han,Shuguang Cui |
発行日 | 2022-06-28 10:25:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google