Con$^{2}$DA: Simplifying Semi-supervised Domain Adaptation by Learning Consistent and Contrastive Feature Representations

要約

この研究では、半教師あり学習の最近の進歩を半教師ありドメイン適応 (SSDA) 問題に拡張する単純なフレームワークである Con$^{2}$DA を紹介します。
私たちのフレームワークは、指定された入力に対して確率的データ変換を実行することによって、関連するサンプルのペアを生成します。
関連するデータ ペアは、特徴エクストラクターを使用して特徴表現空間にマッピングされます。
さまざまな損失関数を使用して、サンプルの関連するデータ ペアの特徴表現間の一貫性を強化します。
これらの学習された表現が、ドメイン適応問題におけるデータ分布の違いに対処するのに役立つことを示します。
私たちはモデルの主要コンポーネントを研究するために実験を行い、(i) 異なるドメイン全体で優れた識別特徴を抽出するには、一貫性のある対照的な特徴表現の学習が重要であること、および ii) 私たちのモデルが強力な拡張ポリシーの使用から恩恵を受けることを示しました。

これらの発見により、私たちの手法は SSDA の 3 つのベンチマーク データセットで最先端のパフォーマンスを達成しました。

要約(オリジナル)

In this work, we present Con$^{2}$DA, a simple framework that extends recent advances in semi-supervised learning to the semi-supervised domain adaptation (SSDA) problem. Our framework generates pairs of associated samples by performing stochastic data transformations to a given input. Associated data pairs are mapped to a feature representation space using a feature extractor. We use different loss functions to enforce consistency between the feature representations of associated data pairs of samples. We show that these learned representations are useful to deal with differences in data distributions in the domain adaptation problem. We performed experiments to study the main components of our model and we show that (i) learning of the consistent and contrastive feature representations is crucial to extract good discriminative features across different domains, and ii) our model benefits from the use of strong augmentation policies. With these findings, our method achieves state-of-the-art performances in three benchmark datasets for SSDA.

arxiv情報

著者 Manuel Pérez-Carrasco,Pavlos Protopapas,Guillermo Cabrera-Vives
発行日 2023-08-11 09:20:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク