Unreliable Partial Label Learning with Recursive Separation

要約

部分ラベル学習 (PLL) は、各インスタンスが候補ラベル セットに関連付けられ、そのうちの 1 つだけが真である典型的な弱教師あり学習問題です。
ただし、実際のアプリケーションでの候補ラベル セットの信頼性はアノテーターによって保証できないため、グラウンド トゥルース ラベルが常に候補ラベル セットの中にあるという仮定は非現実的です。
したがって、Unreliable Partial Label Learning (UPLL) という名前の一般化された PLL が提案されています。この場合、真のラベルは候補ラベル セットに含まれていない可能性があります。
信頼性の低いラベリングによってもたらされる問題により、以前の PLL メソッドは UPLL に適用されるとパフォーマンスが著しく低下します。
この問題に対処するために、再帰的分離を使用した信頼できない部分ラベル学習 (UPLLRS) という 2 段階のフレームワークを提案します。
第 1 段階では、トレーニング セットを信頼できるサブセットと信頼できないサブセットに分離するために、自己適応再帰的分離戦略が提案されます。
第 2 段階では、信頼できるサブセット内のグラウンド トゥルース ラベルを段階的に識別するために曖昧性解消戦略が採用されます。
同時に、信頼できないサブセットから貴重な情報を抽出するために、半教師あり学習法が採用されます。
私たちの方法は、特に信頼性の低い状況で、実験結果によって証明されるように、最先端のパフォーマンスを示しています。

要約(オリジナル)

Partial label learning (PLL) is a typical weakly supervised learning problem in which each instance is associated with a candidate label set, and among which only one is true. However, the assumption that the ground-truth label is always among the candidate label set would be unrealistic, as the reliability of the candidate label sets in real-world applications cannot be guaranteed by annotators. Therefore, a generalized PLL named Unreliable Partial Label Learning (UPLL) is proposed, in which the true label may not be in the candidate label set. Due to the challenges posed by unreliable labeling, previous PLL methods will experience a marked decline in performance when applied to UPLL. To address the issue, we propose a two-stage framework named Unreliable Partial Label Learning with Recursive Separation (UPLLRS). In the first stage, the self-adaptive recursive separation strategy is proposed to separate the training set into a reliable subset and an unreliable subset. In the second stage, a disambiguation strategy is employed to progressively identify the ground-truth labels in the reliable subset. Simultaneously, semi-supervised learning methods are adopted to extract valuable information from the unreliable subset. Our method demonstrates state-of-the-art performance as evidenced by experimental results, particularly in situations of high unreliability.

arxiv情報

著者 Yu Shi,Ning Xu,Hua Yuan,Xin Geng
発行日 2023-02-20 10:39:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク