要約
部分ラベル学習 (PLL) は、各サンプルが一連の候補ラベルに関連付けられている典型的な弱教師あり学習です。
PLL の基本的な前提は、グラウンド トゥルース ラベルが候補セットに存在する必要があるということです。
ただし、この仮定は、アノテーターの専門外の判断により満たされない場合があり、PLL の実際の適用が制限されます。
このホワイト ペーパーでは、この仮定を緩和し、グラウンド トゥルース ラベルが候補セットに存在しない可能性がある、より一般的な問題であるノイズの多い PLL に焦点を当てます。
この困難な問題に対処するために、「反復洗練ネットワーク (IRNet)」と呼ばれる新しいフレームワークを提案します。
2 つの主要なモジュール、すなわち、ノイズの多いサンプルの検出とラベルの修正によって、ノイズの多いサンプルを浄化することを目的としています。
理想的には、ノイズの多いサンプルがすべて修正されれば、ノイズの多い PLL を従来の PLL に変換できます。
これらのモジュールのパフォーマンスを保証するために、ウォームアップ トレーニングから開始し、データ拡張を活用して予測エラーを減らします。
理論的な分析を通じて、IRNet がデータセットのノイズ レベルを低減し、最終的にベイズ最適分類器に近づけることができることを証明します。
複数のベンチマーク データセットでの実験結果は、この方法の有効性を示しています。
IRNet は、ノイズの多い PLL に対する既存の最先端のアプローチよりも優れています。
要約(オリジナル)
Partial label learning (PLL) is a typical weakly supervised learning, where each sample is associated with a set of candidate labels. The basic assumption of PLL is that the ground-truth label must reside in the candidate set. However, this assumption may not be satisfied due to the unprofessional judgment of the annotators, thus limiting the practical application of PLL. In this paper, we relax this assumption and focus on a more general problem, noisy PLL, where the ground-truth label may not exist in the candidate set. To address this challenging problem, we propose a novel framework called ‘Iterative Refinement Network (IRNet)’. It aims to purify the noisy samples by two key modules, i.e., noisy sample detection and label correction. Ideally, we can convert noisy PLL into traditional PLL if all noisy samples are corrected. To guarantee the performance of these modules, we start with warm-up training and exploit data augmentation to reduce prediction errors. Through theoretical analysis, we prove that IRNet is able to reduce the noise level of the dataset and eventually approximate the Bayes optimal classifier. Experimental results on multiple benchmark datasets demonstrate the effectiveness of our method. IRNet is superior to existing state-of-the-art approaches on noisy PLL.
arxiv情報
著者 | Zheng Lian,Mingyu Xu,Lan Chen,Licai Sun,Bin Liu,Jianhua Tao |
発行日 | 2023-03-08 05:18:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google