AVATAR: Adversarial self-superVised domain Adaptation network for TARget domain

要約

タイトル:AVATAR:TARget domainのAdversarial self-superVised domain Adaptation network

要約:

– 本論文では、ドメイン間の差異が大きい複雑なUDAタスクに特化した、ラベルのないターゲットドメインデータの予測のための非監視学習ドメイン適応(UDA)手法を提案している。
– 通常のUDAモデルは、両方のドメインから学習し、ラベル付きのソースドメインデータを利用してターゲットドメインの識別能力を向上させることを目的としています。しかし、ソースとターゲットのドメインの間の差異が大きい場合やターゲットドメインに外れ値がある場合、性能向上が限定的になる可能性があります。
– この問題に明示的に対処するために、 Adversarial self-superVised domain Adaptation network for TARget domain(AVATAR)アルゴリズムを提案しています。これにより、ディープクラスタリングによって誘導される自己教師付き学習、ターゲットドメインのサンプル選択戦略、ドメイン対抗学習を介してドメインの差異を同時に減少させつつ、識別能力を向上させることができます。
– 提案されたモデルは、3つのUDAベンチマークで従来のモデルよりも優れた性能を発揮し、多くのablation研究や実験により、複雑なUDAタスクに対処するためのアプローチの有効性が示されています。

要約(オリジナル)

This paper presents an unsupervised domain adaptation (UDA) method for predicting unlabeled target domain data, specific to complex UDA tasks where the domain gap is significant. Mainstream UDA models aim to learn from both domains and improve target discrimination by utilizing labeled source domain data. However, the performance boost may be limited when the discrepancy between the source and target domains is large or the target domain contains outliers. To explicitly address this issue, we propose the Adversarial self-superVised domain Adaptation network for the TARget domain (AVATAR) algorithm. It outperforms state-of-the-art UDA models by concurrently reducing domain discrepancy while enhancing discrimination through domain adversarial learning, self-supervised learning, and sample selection strategy for the target domain, all guided by deep clustering. Our proposed model significantly outperforms state-of-the-art methods on three UDA benchmarks, and extensive ablation studies and experiments demonstrate the effectiveness of our approach for addressing complex UDA tasks.

arxiv情報

著者 Jun Kataoka,Hyunsoo Yoon
発行日 2023-05-08 03:35:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク