BatMan-CLR: Making Few-shots Meta-Learners Resilient Against Label Noise

要約

ラベルノイズの悪影響は、古典的な教師あり学習ではよく研究されていますが、メタ学習では未解決の研究課題のままです。
メタ学習者は、メタトレーニングで適切な初期モデルを学習し、メタテスト中に新しいタスクに応じてそれを継続的に微調整することで、目に見えない学習タスクに適応することを目指しています。
この論文では、さまざまなレベルのラベルノイズが最先端のメタ学習器、特に勾配ベースの $N$ ウェイ $K$ ショット学習器のパフォーマンスに及ぼす影響について、初めて広範な分析を示します。
メタトレーニングがラベル ノイズの影響を受けると、Omniglot および CifarFS データセット上で Reptile、iMAML、および foMAML の精度が最大 42% 低下することを示します。
ラベルノイズに対する耐性を強化するために、マニホールド (Man) とバッチマニホールド (BatMan) という 2 つのサンプリング手法を提案します。これは、ノイズのある教師あり学習器を半教師あり学習器に変換して、ノイズのあるラベルの有用性を高めます。
まず、拡張を通じて $N$ 方向の $2$ 対比ショット タスクの多様体サンプルを構築し、メタトレーニングでの対比損失を介して埋め込みを学習し、次にメタテストで埋め込みのゼロ化を通じて分類を実行します。
私たちのアプローチがメタトレーニングラベルノイズの影響を効果的に軽減できることを示します。
60% 間違ったラベルがあっても、\batman と \man は、オムニグロット全体の既存のメタ学習者を使用して、メタテストの精度の低下をそれぞれ ${2.5}$、${9.4}$、${1.1}$ パーセント ポイントに抑えることができます。
、CifarFS、および MiniImagenet データセット。

要約(オリジナル)

The negative impact of label noise is well studied in classical supervised learning yet remains an open research question in meta-learning. Meta-learners aim to adapt to unseen learning tasks by learning a good initial model in meta-training and consecutively fine-tuning it according to new tasks during meta-testing. In this paper, we present the first extensive analysis of the impact of varying levels of label noise on the performance of state-of-the-art meta-learners, specifically gradient-based $N$-way $K$-shot learners. We show that the accuracy of Reptile, iMAML, and foMAML drops by up to 42% on the Omniglot and CifarFS datasets when meta-training is affected by label noise. To strengthen the resilience against label noise, we propose two sampling techniques, namely manifold (Man) and batch manifold (BatMan), which transform the noisy supervised learners into semi-supervised ones to increase the utility of noisy labels. We first construct manifold samples of $N$-way $2$-contrastive-shot tasks through augmentation, learning the embedding via a contrastive loss in meta-training, and then perform classification through zeroing on the embedding in meta-testing. We show that our approach can effectively mitigate the impact of meta-training label noise. Even with 60% wrong labels \batman and \man can limit the meta-testing accuracy drop to ${2.5}$, ${9.4}$, ${1.1}$ percent points, respectively, with existing meta-learners across the Omniglot, CifarFS, and MiniImagenet datasets.

arxiv情報

著者 Jeroen M. Galjaard,Robert Birke,Juan Perez,Lydia Y. Chen
発行日 2023-09-12 08:30:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.NE パーマリンク