Robust Representation Learning for Unreliable Partial Label Learning

要約

部分ラベル学習 (PLL) は弱い教師あり学習の一種で、各トレーニング インスタンスに一連の候補ラベルが割り当てられますが、グラウンド トゥルースとなるラベルは 1 つだけです。
ただし、この理想的な仮定は、潜在的なアノテーションの不正確さにより常に成立するとは限りません。つまり、候補ラベル セットにグランドトゥルースが存在しない可能性があります。
これは、信頼性の低い部分ラベル学習 (UPLL) として知られており、部分ラベルの本質的な信頼性の低さと曖昧さによってさらなる複雑さが生じ、多くの場合、既存の方法では次善のパフォーマンスが得られます。
この課題に対処するために、信頼性の低い部分ラベルに対してモデルを効果的に強化するために、信頼性の低い対照学習を活用する信頼性の低い表現学習フレームワーク (URRL) を提案します。
同時に、ラベルの品質を向上させ、URL フレームワーク内での表現学習の能力を強化するために、KNN ベースの候補ラベル セットの修正と一貫性正則化ベースのラベルの曖昧さ回避を組み合わせた二重戦略を提案します。
広範な実験により、提案された方法が、さまざまな程度の信頼性と曖昧さを持つさまざまなデータセットに対して最先端の PLL 方法よりも優れたパフォーマンスを発揮することが実証されました。
さらに、期待値最大化 (EM) アルゴリズムの観点から、アプローチの理論的分析を提供します。
承認され次第、コードを公的にアクセスできるようにすることを誓約します。

要約(オリジナル)

Partial Label Learning (PLL) is a type of weakly supervised learning where each training instance is assigned a set of candidate labels, but only one label is the ground-truth. However, this idealistic assumption may not always hold due to potential annotation inaccuracies, meaning the ground-truth may not be present in the candidate label set. This is known as Unreliable Partial Label Learning (UPLL) that introduces an additional complexity due to the inherent unreliability and ambiguity of partial labels, often resulting in a sub-optimal performance with existing methods. To address this challenge, we propose the Unreliability-Robust Representation Learning framework (URRL) that leverages unreliability-robust contrastive learning to help the model fortify against unreliable partial labels effectively. Concurrently, we propose a dual strategy that combines KNN-based candidate label set correction and consistency-regularization-based label disambiguation to refine label quality and enhance the ability of representation learning within the URRL framework. Extensive experiments demonstrate that the proposed method outperforms state-of-the-art PLL methods on various datasets with diverse degrees of unreliability and ambiguity. Furthermore, we provide a theoretical analysis of our approach from the perspective of the expectation maximization (EM) algorithm. Upon acceptance, we pledge to make the code publicly accessible.

arxiv情報

著者 Yu Shi,Dong-Dong Wu,Xin Geng,Min-Ling Zhang
発行日 2023-08-31 13:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク