要約
正のデータとラベルのないデータから学習する問題 (別名 PU 学習) は、入力データが (1) 正のクラスからの観測値とそれに対応するラベル (
2) 正と負の両方のクラスからのラベルのない観測。
Generative Adversarial Networks (GAN) は、教師あり学習が分類タスクで最先端の精度を備えているという利点を備えた教師あり設定に問題を軽減するために使用されています。
\textit{pseudo}-negative 観測を生成するために、GAN は修正された損失を伴う、正のラベルのない観測でトレーニングされます。
肯定的な観測と \textit{pseudo}-negative な観測の両方を使用すると、教師あり学習の設定ができます。
欠落している負のクラスのサンプルを置き換えるのに十分現実的な疑似負の観測値の生成は、現在の GAN ベースのアルゴリズムのボトルネックです。
GAN アーキテクチャに追加の分類子を含めることで、新しい GAN ベースのアプローチを提供します。
私たちが提案する方法では、GAN ディスクリミネーターは、ラベルのないデータ分布に該当するサンプルのみを生成するようにジェネレーターに指示し、2 番目の分類子 (オブザーバー) ネットワークは、次の目的で GAN トレーニングを監視します。(i) 生成されたサンプルが正の分布に陥るのを防ぎます。
;
(ii) 肯定的な観察結果と否定的な観察結果の重要な違いである特徴を学習します。
4 つの画像データセットでの実験では、トレーニング済みのオブザーバー ネットワークが、実際の目に見えないポジティブ サンプルとネガティブ サンプルを区別する際に、既存の手法よりも優れたパフォーマンスを発揮することが示されています。
要約(オリジナル)
The problem of learning from positive and unlabeled data (A.K.A. PU learning) has been studied in a binary (i.e., positive versus negative) classification setting, where the input data consist of (1) observations from the positive class and their corresponding labels, (2) unlabeled observations from both positive and negative classes. Generative Adversarial Networks (GANs) have been used to reduce the problem to the supervised setting with the advantage that supervised learning has state-of-the-art accuracy in classification tasks. In order to generate \textit{pseudo}-negative observations, GANs are trained on positive and unlabeled observations with a modified loss. Using both positive and \textit{pseudo}-negative observations leads to a supervised learning setting. The generation of pseudo-negative observations that are realistic enough to replace missing negative class samples is a bottleneck for current GAN-based algorithms. By including an additional classifier into the GAN architecture, we provide a novel GAN-based approach. In our suggested method, the GAN discriminator instructs the generator only to produce samples that fall into the unlabeled data distribution, while a second classifier (observer) network monitors the GAN training to: (i) prevent the generated samples from falling into the positive distribution; and (ii) learn the features that are the key distinction between the positive and negative observations. Experiments on four image datasets demonstrate that our trained observer network performs better than existing techniques in discriminating between real unseen positive and negative samples.
arxiv情報
著者 | Omar Zamzam,Haleh Akrami,Richard Leahy |
発行日 | 2022-08-26 07:35:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google