要約
部分ラベル学習 (PLL) は、各トレーニング インスタンスが一連の候補ラベル (部分ラベル) とペアになり、そのうちの 1 つが真のラベルである、弱教師あり学習パラダイムです。
Noisy PLL (NPLL) は、一部の部分ラベルに真のラベルが含まれないことを許可することでこの制約を緩和し、問題の実用性を高めます。
私たちの研究は NPLL に焦点を当てており、加重最近傍アルゴリズムを通じてノイズの多い部分ラベルを利用することによって、最初に画像に疑似ラベルを割り当てる SARI と呼ばれる最小限のフレームワークを提示しています。
これらの擬似ラベルと画像のペアは、ラベル スムージングと標準の正則化手法を使用してディープ ニューラル ネットワーク分類器をトレーニングするために使用されます。
その後、分類子の機能と予測を使用して、擬似ラベルの精度を調整および強化します。
SARI は、文献に基づいた平均ベースの戦略 (擬似ラベル付け) と識別ベースの戦略 (分類子トレーニング) の長所を組み合わせています。
我々は 7 つのデータセットに対して徹底的な実験を実行し、SARI を従来技術の 9 つの NPLL および PLL 手法と比較しました。
SARI は、研究対象のほぼすべての設定で最先端の結果を達成し、きめの細かい分類と極端なノイズ設定で大幅な向上を実現します。
要約(オリジナル)
Partial label learning (PLL) is a weakly-supervised learning paradigm where each training instance is paired with a set of candidate labels (partial label), one of which is the true label. Noisy PLL (NPLL) relaxes this constraint by allowing some partial labels to not contain the true label, enhancing the practicality of the problem. Our work centers on NPLL and presents a minimalistic framework called SARI that initially assigns pseudo-labels to images by exploiting the noisy partial labels through a weighted nearest neighbour algorithm. These pseudo-label and image pairs are then used to train a deep neural network classifier with label smoothing and standard regularization techniques. The classifier’s features and predictions are subsequently employed to refine and enhance the accuracy of pseudo-labels. SARI combines the strengths of Average Based Strategies (in pseudo labelling) and Identification Based Strategies (in classifier training) from the literature. We perform thorough experiments on seven datasets and compare SARI against nine NPLL and PLL methods from the prior art. SARI achieves state-of-the-art results in almost all studied settings, obtaining substantial gains in fine-grained classification and extreme noise settings.
arxiv情報
著者 | Darshana Saravanan,Naresh Manwani,Vineet Gandhi |
発行日 | 2024-02-07 13:32:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google