Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning

要約

完全に注釈されたデータセットをキュレートすることが高価であり、きめの分類などのドメインの専門知識が必要になる場合がある問題の効果的な学習パラダイムとして、弱い監視された学習を動機付けます。
部分的なラベル学習(PLL)に焦点を当てています。これは、各トレーニングインスタンスが一連の候補ラベル(部分ラベル)と組み合わされている弱く監視されている学習パラダイムであり、そのうちの1つは真のラベルです。
Noisy PLL(NPLL)は、一部の部分ラベルが真のラベルを封じ込めず、問題の実用性を高めることにより、この制約を緩和します。
私たちの作業は、NPLLに焦点を当て、最初に擬似ラベルを画像に割り当てるフレームワークを提示します。
これらの擬似ラベルと画像ペアを使用して、ラベルのスムージングで深いニューラルネットワーク分類器を訓練します。
その後、分類器の機能と予測が採用され、擬似ラベルの精度を改良および強化します。
7つのデータセットで徹底的な実験を実行し、9つのNPLLおよびPLLメソッドと比較します。
私たちは、以前の文献からのすべての研究された設定で最先端の結果を達成し、シミュレートされた細粒のベンチマークでかなりの利益を得ています。
さらに、フレームワークの有望な一般化能力を、現実的できめの細かい群衆に囲まれたデータセットで示します。

要約(オリジナル)

We motivate weakly supervised learning as an effective learning paradigm for problems where curating perfectly annotated datasets is expensive and may require domain expertise such as fine-grained classification. We focus on Partial Label Learning (PLL), a weakly-supervised learning paradigm where each training instance is paired with a set of candidate labels (partial label), one of which is the true label. Noisy PLL (NPLL) relaxes this constraint by allowing some partial labels to not contain the true label, enhancing the practicality of the problem. Our work centres on NPLL and presents a framework that initially assigns pseudo-labels to images by exploiting the noisy partial labels through a weighted nearest neighbour algorithm. These pseudo-label and image pairs are then used to train a deep neural network classifier with label smoothing. The classifier’s features and predictions are subsequently employed to refine and enhance the accuracy of pseudo-labels. We perform thorough experiments on seven datasets and compare against nine NPLL and PLL methods. We achieve state-of-the-art results in all studied settings from the prior literature, obtaining substantial gains in the simulated fine-grained benchmarks. Further, we show the promising generalisation capability of our framework in realistic, fine-grained, crowd-sourced datasets.

arxiv情報

著者 Darshana Saravanan,Naresh Manwani,Vineet Gandhi
発行日 2025-06-06 16:15:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク