Progressive Purification for Instance-Dependent Partial Label Learning

要約

タイトル:Progressive Purification for Instance-Dependent Partial Label Learning
要約:

– Partial label learning (PLL)は各例が候補ラベルのセットで注釈付けされており、固定されたが不明な候補ラベルが正しい場合に多クラス分類器をトレーニングすることを目的としています。
– 過去数年間、候補ラベルの生成過程について独立した研究が行われており、その基盤上でPLLに関する多くの理論的な進歩が得られています。
– しかし、現実の場合、候補ラベルは常にインスタンスによって異なります。インスタンスに依存するPLL例でトレーニングされたモデルが理想的なものに収束する理論的な保証はありません。
– この論文では、理論的に根拠のある効果的な方法であるPOP(PrOgressive Purification for instance-dependent partial label learning)が提案されています。具体的には、POPは学習モデルを更新し、各エポックで候補ラベルセットを進行的に浄化します。
– 理論的には、POPはモデルが信頼できる領域を適切に拡大し、穏やかな仮定に基づいてBayes最適分類器に近似します。
– 技術的には、POPは任意のPLLロスに対して柔軟であり、インスタンスに依存する場合に前のPLLロスのパフォーマンスを改善することができます。
– ベンチマークデータセットと実世界のデータセットでの実験は、提案されたメソッドの有効性を検証しています。

要約(オリジナル)

Partial label learning (PLL) aims to train multiclass classifiers from the examples each annotated with a set of candidate labels where a fixed but unknown candidate label is correct. In the last few years, the instance-independent generation process of candidate labels has been extensively studied, on the basis of which many theoretical advances have been made in PLL. Nevertheless, the candidate labels are always instance-dependent in practice and there is no theoretical guarantee that the model trained on the instance-dependent PLL examples can converge to an ideal one. In this paper, a theoretically grounded and practically effective approach named POP, i.e. PrOgressive Purification for instance-dependent partial label learning, is proposed. Specifically, POP updates the learning model and purifies each candidate label set progressively in every epoch. Theoretically, we prove that POP enlarges the region appropriately fast where the model is reliable, and eventually approximates the Bayes optimal classifier with mild assumptions. Technically, POP is flexible with arbitrary PLL losses and could improve the performance of the previous PLL losses in the instance-dependent case. Experiments on the benchmark datasets and the real-world datasets validate the effectiveness of the proposed method.

arxiv情報

著者 Ning Xu,Biao Liu,Jiaqi Lv,Congyu Qiao,Xin Geng
発行日 2023-05-10 02:38:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク