要約
教師なしドメイン適応(UDA)を検討します。ここでは、ソースドメインからのラベル付きデータ(写真など)とターゲットドメインからのラベルなしデータ(スケッチなど)を使用して、ターゲットドメインの分類子を学習します。
従来のUDAメソッド(ドメインの敵対的トレーニングなど)は、ドメイン不変の機能を学習して、ターゲットドメインへの一般化を改善します。
この論文では、ラベルのないソースデータとターゲットデータの特徴を学習し、ラベルの付いたソースデータを微調整する対照的な事前トレーニングが、強力なUDA手法と競合することを示します。
ただし、対照的な事前トレーニングでは、従来のUDAの直感とは異なり、ドメイン不変の機能は学習されないことがわかります。
対照的な事前トレーニングでは、ドメインとクラスの情報を解きほぐすことにより、ドメイン間で大幅に異なるが、ターゲットドメインに一般化する機能を学習できることを理論的に示します。
私たちの結果は、UDAにはドメインの不変性は必要ないことを示唆しています。
ベンチマークビジョンデータセットに関する理論を経験的に検証します。
要約(オリジナル)
We consider unsupervised domain adaptation (UDA), where labeled data from a source domain (e.g., photographs) and unlabeled data from a target domain (e.g., sketches) are used to learn a classifier for the target domain. Conventional UDA methods (e.g., domain adversarial training) learn domain-invariant features to improve generalization to the target domain. In this paper, we show that contrastive pre-training, which learns features on unlabeled source and target data and then fine-tunes on labeled source data, is competitive with strong UDA methods. However, we find that contrastive pre-training does not learn domain-invariant features, diverging from conventional UDA intuitions. We show theoretically that contrastive pre-training can learn features that vary subtantially across domains but still generalize to the target domain, by disentangling domain and class information. Our results suggest that domain invariance is not necessary for UDA. We empirically validate our theory on benchmark vision datasets.
arxiv情報
著者 | Kendrick Shen,Robbie Jones,Ananya Kumar,Sang Michael Xie,Jeff Z. HaoChen,Tengyu Ma,Percy Liang |
発行日 | 2022-07-20 15:51:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google