Iterative label cleaning for transductive and semi-supervised few-shot learning

要約

数ショット学習は、監督とデータの両方が制限された状態で新しいタスクを解決できるように、表現を学習し、知識を獲得することになります。
テストセット全体が同時に利用できる伝達的推論と、より多くのラベルなしデータが利用できる半教師あり学習によって、パフォーマンスの向上が可能です。
これらの 2 つの設定に焦点を当てて、ラベル付きおよびラベルなしのデータ分布のマニホールド構造を活用して疑似ラベルを予測する新しいアルゴリズムを導入し、クラス間のバランスを取り、限られた容量の分類器の損失値分布を使用して最もクリーンなラベルを選択します。
、疑似ラベルの品質を繰り返し改善します。
私たちのソリューションは、4 つのベンチマーク データセット、つまり miniImageNet、tieredImageNet、CUB、および CIFAR-FS での最先端の結果を上回るか一致すると同時に、特徴空間の前処理と利用可能なデータの量に対して堅牢です。
公開されているソース コードは、https://github.com/MichalisLazarou/iLPC にあります。

要約(オリジナル)

Few-shot learning amounts to learning representations and acquiring knowledge such that novel tasks may be solved with both supervision and data being limited. Improved performance is possible by transductive inference, where the entire test set is available concurrently, and semi-supervised learning, where more unlabeled data is available. Focusing on these two settings, we introduce a new algorithm that leverages the manifold structure of the labeled and unlabeled data distribution to predict pseudo-labels, while balancing over classes and using the loss value distribution of a limited-capacity classifier to select the cleanest labels, iteratively improving the quality of pseudo-labels. Our solution surpasses or matches the state of the art results on four benchmark datasets, namely miniImageNet, tieredImageNet, CUB and CIFAR-FS, while being robust over feature space pre-processing and the quantity of available data. The publicly available source code can be found in https://github.com/MichalisLazarou/iLPC.

arxiv情報

著者 Michalis Lazarou,Tania Stathaki,Yannis Avrithis
発行日 2023-03-28 15:05:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク