Unreliable Partial Label Learning with Recursive Separation

要約

部分ラベル学習 (PLL) は、各インスタンスが候補ラベル セットに関連付けられ、そのうち 1 つだけが真となる、典型的な弱教師学習問題です。
ただし、実際のアプリケーションにおける候補ラベル セットの信頼性はアノテーターによって保証できないため、グラウンド トゥルース ラベルが常に候補ラベル セットに含まれるという仮定は非現実的です。
したがって、信頼性の低い部分ラベル学習 (UPLL) と呼ばれる一般化された PLL が提案されています。この PLL では、真のラベルが候補ラベル セットに含まれていない可能性があります。
信頼性の低いラベル付けによってもたらされる課題のため、以前の PLL 方式を UPLL に適用すると、パフォーマンスが著しく低下します。
この問題に対処するために、私たちは再帰分離による信頼性の低い部分ラベル学習 (UPLLRS) という 2 段階のフレームワークを提案します。
最初の段階では、トレーニング セットを信頼できるサブセットと信頼できないサブセットに分離するための自己適応的再帰的分離戦略が提案されます。
第 2 段階では、曖昧さ回避戦略を使用して、信頼できるサブセット内のグラウンド トゥルース ラベルを段階的に識別します。
同時に、半教師あり学習手法を採用して、信頼性の低いサブセットから貴重な情報を抽出します。
私たちの方法は、特に信頼性の低い状況において、実験結果によって証明されているように、最先端のパフォーマンスを示しています。
コードと補足資料は https://github.com/dhiyu/UPLLRS で入手できます。

要約(オリジナル)

Partial label learning (PLL) is a typical weakly supervised learning problem in which each instance is associated with a candidate label set, and among which only one is true. However, the assumption that the ground-truth label is always among the candidate label set would be unrealistic, as the reliability of the candidate label sets in real-world applications cannot be guaranteed by annotators. Therefore, a generalized PLL named Unreliable Partial Label Learning (UPLL) is proposed, in which the true label may not be in the candidate label set. Due to the challenges posed by unreliable labeling, previous PLL methods will experience a marked decline in performance when applied to UPLL. To address the issue, we propose a two-stage framework named Unreliable Partial Label Learning with Recursive Separation (UPLLRS). In the first stage, the self-adaptive recursive separation strategy is proposed to separate the training set into a reliable subset and an unreliable subset. In the second stage, a disambiguation strategy is employed to progressively identify the ground-truth labels in the reliable subset. Simultaneously, semi-supervised learning methods are adopted to extract valuable information from the unreliable subset. Our method demonstrates state-of-the-art performance as evidenced by experimental results, particularly in situations of high unreliability. Code and supplementary materials are available at https://github.com/dhiyu/UPLLRS.

arxiv情報

著者 Yu Shi,Ning Xu,Hua Yuan,Xin Geng
発行日 2023-08-29 14:10:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク