Towards Realizing the Value of Labeled Target Samples: a Two-Stage Approach for Semi-Supervised Domain Adaptation

要約

タイトル:ラベル付きターゲットサンプルの価値を実現するための2段階アプローチ:半教師有りドメイン適応

要約:

– Semi-Supervised Domain Adaptation (SSDA)は、ラベルが付けられた少数のターゲットサンプルを含む未ラベル化のターゲットサンプルとラベル付きのソースサンプルを使ってトレーニングされることで、広く調査されているUnsupervised Domain Adaptation (UDA)から派生した新しい研究トピックである。
– 既存のSSDA手法は、貴重なラベル付きターゲットサンプルを大量のラベル付きソースサンプルに統合するか、またはそれらをさらに整合性を図ることで、ラベル付きターゲットサンプルの価値を低下させ、バイアスのあるモデルを得る問題がある。
– この論文では、SSDAをUDA問題と半教師有り学習問題に分け、最初にラベル付きソースサンプルと未ラベル化のターゲットサンプルを使ってUDAモデルを学習し、次にラベル付きおよび未ラベル化のターゲットサンプルを使用して学習されたUDAモデルを半教師有りで適応することを提案している。ラベル付きソースサンプルとターゲットサンプルを別々に使用することで、バイアス問題を良好に緩和できる。
– また、整合性学習ベースの平均教師モデルを提案して、ラベル付きおよび未ラベル化のターゲットサンプルを使用してUDAモデルを効果的に適応する。
– 実験結果は、この手法が既存の手法よりも優れていることを示している。

要約(オリジナル)

Semi-Supervised Domain Adaptation (SSDA) is a recently emerging research topic that extends from the widely-investigated Unsupervised Domain Adaptation (UDA) by further having a few target samples labeled, i.e., the model is trained with labeled source samples, unlabeled target samples as well as a few labeled target samples. Compared with UDA, the key to SSDA lies how to most effectively utilize the few labeled target samples. Existing SSDA approaches simply merge the few precious labeled target samples into vast labeled source samples or further align them, which dilutes the value of labeled target samples and thus still obtains a biased model. To remedy this, in this paper, we propose to decouple SSDA as an UDA problem and a semi-supervised learning problem where we first learn an UDA model using labeled source and unlabeled target samples and then adapt the learned UDA model in a semi-supervised way using labeled and unlabeled target samples. By utilizing the labeled source samples and target samples separately, the bias problem can be well mitigated. We further propose a consistency learning based mean teacher model to effectively adapt the learned UDA model using labeled and unlabeled target samples. Experiments show our approach outperforms existing methods.

arxiv情報

著者 mengqun Jin,Kai Li,Shuyan Li,Chunming He,Xiu Li
発行日 2023-04-21 06:13:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV パーマリンク