要約
いくつかのショット学習は、一部のクラスでラベル付けされたサンプルの量が非常に限られている問題に対処するために広範囲に調査されています。
半監督の少数の学習設定では、かなりの量の非標識サンプルが利用可能です。
このような非標識サンプルは、一般に取得がより安価であり、モデルの少数の学習パフォーマンスを改善するために使用できます。
この設定の最近の方法のいくつかは、クラスタリングに依存して、非標識サンプルの擬似ラベルを生成します。
クラスタリングの有効性は、非標識サンプルのラベル付けに大きく影響するため、少数の学習パフォーマンスに大きな影響を与える可能性があります。
このホワイトペーパーでは、クラスタリングとその結果、モデルのパフォーマンスを改善するために、モデルによって学習された表現の改善に焦点を当てています。
この設定でラベル付けされたサンプルと非標識サンプルをクラスタリングする効果を向上させるために、クラスター分離チューナーと組み合わせたクラスの分散クラスタリングを実行する半監督の少数の学習のアプローチを提案します。
また、制限された擬似標識アプローチを使用してクラスタリングベースの擬似標識プロセスを最適化し、モデルの半監視された少数の学習パフォーマンスを改善するためにセマンティック情報インジェクションを実行します。
提案されたアプローチは、ベンチマークデータセットで最近の最新の方法を大幅に上回ることを実験的に実証します。
要約(オリジナル)
Few-shot learning has been extensively explored to address problems where the amount of labeled samples is very limited for some classes. In the semi-supervised few-shot learning setting, substantial quantities of unlabeled samples are available. Such unlabeled samples are generally cheaper to obtain and can be used to improve the few-shot learning performance of the model. Some of the recent methods for this setting rely on clustering to generate pseudo-labels for the unlabeled samples. Since the effectiveness of clustering heavily influences the labeling of the unlabeled samples, it can significantly affect the few-shot learning performance. In this paper, we focus on improving the representation learned by the model in order to improve the clustering and, consequently, the model performance. We propose an approach for semi-supervised few-shot learning that performs a class-variance optimized clustering coupled with a cluster separation tuner in order to improve the effectiveness of clustering the labeled and unlabeled samples in this setting. It also optimizes the clustering-based pseudo-labeling process using a restricted pseudo-labeling approach and performs semantic information injection in order to improve the semi-supervised few-shot learning performance of the model. We experimentally demonstrate that our proposed approach significantly outperforms recent state-of-the-art methods on the benchmark datasets.
arxiv情報
著者 | Souvik Maji,Rhythm Baghel,Pratik Mazumder |
発行日 | 2025-05-29 17:23:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google