要約
部分ラベル学習(PLL)は典型的な弱教師付き学習であり,各サンプルはラベル候補の集合と関連付けられている.PLLの基本的な仮定は、真正ラベルが候補集合の中に存在することである。しかし,アノテーターの専門外の判断により,この仮定が満たされない場合があり,PLLの実用的な適用が制限されている.本論文では、この仮定を緩和し、より一般的な問題であるノイズPLLに着目する。ノイズPLLでは、真正ラベルが候補集合に存在しない可能性がある。この問題に対処するため、我々はさらに「自動絞り込みネットワーク(ARNet)」と呼ばれる新しいフレームワークを提案する。本手法は複数のラウンドで構成される。各ラウンドでは、ノイズの多いサンプルの検出とラベル補正という2つの主要なモジュールを通して、ノイズの多いサンプルを精製する。これらのモジュールの性能を保証するために、我々はウォームアップ学習から始め、適切な補正エポックを自動的に選択する。一方、我々はARNetの予測誤差をさらに減少させるために、データ拡張を利用する。理論解析により、本手法がデータセットのノイズレベルを低減し、最終的にベイズ最適分類器に近づけることができることを証明する。ARNetの有効性を検証するために、複数のベンチマークデータセットに対して実験を行った。実験の結果、我々のARNetはノイズの多いPLLにおいて、既存の最先端アプローチよりも優れていることが実証された。我々のコードは近日公開予定です。
要約(オリジナル)
Partial label learning (PLL) is a typical weakly supervised learning, where each sample is associated with a set of candidate labels. The basic assumption of PLL is that the ground-truth label must reside in the candidate set. However, this assumption may not be satisfied due to the unprofessional judgment of the annotators, thus limiting the practical application of PLL. In this paper, we relax this assumption and focus on a more general problem, noisy PLL, where the ground-truth label may not exist in the candidate set. To address this challenging problem, we further propose a novel framework called ‘Automatic Refinement Network (ARNet)’. Our method consists of multiple rounds. In each round, we purify the noisy samples through two key modules, i.e., noisy sample detection and label correction. To guarantee the performance of these modules, we start with warm-up training and automatically select the appropriate correction epoch. Meanwhile, we exploit data augmentation to further reduce prediction errors in ARNet. Through theoretical analysis, we prove that our method is able to reduce the noise level of the dataset and eventually approximate the Bayes optimal classifier. To verify the effectiveness of ARNet, we conduct experiments on multiple benchmark datasets. Experimental results demonstrate that our ARNet is superior to existing state-of-the-art approaches in noisy PLL. Our code will be made public soon.
arxiv情報
著者 | Zheng Lian,Mingyu Xu,Lan Chen,Licai Sun,Bin Liu,Jianhua Tao |
発行日 | 2022-11-09 10:01:25+00:00 |
arxivサイト | arxiv_id(pdf) |