Heterogeneous Domain Adaptation with Positive and Unlabeled Data

要約

タイトル:Positive and Unlabeled Dataを用いた異種ドメイン適応

要約:

– 異種非監視ドメイン適応(HUDA)は、ソースドメインとターゲットドメインの特徴空間が異なり、ターゲットドメインにはラベルのないデータしかない最も難しいドメイン適応設定である。
– 既存のHUDA手法は、ソースドメインにおいて正例と負例が両方利用可能であることを前提としており、一部の実際のアプリケーションではこれが満たされない可能性がある。
– 本論文では、陽性データのみ存在するソースドメインでの陽性未知ドメイン適応(PU-HDA)と呼ばれる新しい課題を提起する。
– PU-HDAは、陽性と未知の例が異なるドメインからサンプリングされたPU学習の拡張と見なすこともできる。
– 既存のHUDAとPU学習手法の単純な組み合わせは、ラベル分布の格差のためにPU-HDAでは効果的ではない。
– この問題を克服するために、彼らは、陽性の可能性の高いターゲットデータを予測し、同時にフィーチャースペースを整列させ、全体のソースデータと陽性未知ターゲットデータの分布の発散を減らす新しい方法であるPositive-adversarial domain adaptation(PADA)を提唱する。
– PADAは、陽性の例を予測するための分類器と、ターゲットのフィーチャースペースをソースのそれに変換するためのフィーチャートランスフォーマの両方を学習するための統一された敵対的なトレーニングフレームワークを使用してこれを達成する。
– 具体的には、両方のトレーニングは、陽性未知ターゲットデータのソースまたはターゲットドメインからの可能性の高い陽性例を決定する共通のディスクリミネータを欺くために行われる。
– PADAがHUDAとPU学習の単純な組み合わせよりも優れた性能を発揮することを実験的に示した。

要約(オリジナル)

Heterogeneous unsupervised domain adaptation (HUDA) is the most challenging domain adaptation setting where the feature space differs between source and target domains, and the target domain has only unlabeled data. Existing HUDA methods assume that both positive and negative examples are available in the source domain, which may not be satisfied in some real applications. This paper addresses a new challenging setting called positive and unlabeled heterogeneous domain adaptation (PU-HDA), a HUDA setting where the source domain only has positives. PU-HDA can also be viewed as an extension of PU learning where the positive and unlabeled examples are sampled from different domains. A naive combination of existing HUDA and PU learning methods is ineffective in PU-HDA due to the gap in label distribution between the source and target domains. To overcome this issue, we propose a novel method, positive-adversarial domain adaptation (PADA), which can predict likely positive examples from the unlabeled target data and simultaneously align the feature spaces to reduce the distribution divergence between the whole source data and the likely positive target data. PADA achieves this by a unified adversarial training framework for learning a classifier to predict positive examples and a feature transformer to transform the target feature space to that of the source. Specifically, they are both trained to fool a common discriminator that determines whether the likely positive examples are from the target or source domain. We experimentally show that PADA outperforms several baseline methods, such as the naive combination of HUDA and PU learning.

arxiv情報

著者 Junki Mori,Ryo Furukawa,Isamu Teranishi,Jun Sakuma
発行日 2023-04-17 02:50:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク