Semantics-driven Attentive Few-shot Learning over Clean and Noisy Samples

要約

ここ数年、ラベル付き学習例への依存度を最小化するために、少数点学習(FSL)が大きな注目を集めている。しかし、数撃ちゃ当たる方式では、1クラスあたりの学習サンプルが少なすぎるために生じる曖昧性を処理することが困難である。本研究では、このような課題を解決するために、新しいクラスに関する事前の意味的知識を利用して分類器の合成を導くメタ学習モデルを学習することを目的とする。特に、表現次元と学習事例の重要性を推定する、意味的に条件付けされた特徴的注意とサンプル注意のメカニズムを提案する。また、より現実的で不完全な設定でのメタ学習器の利用に向けて、FSLにおけるサンプルノイズの問題を研究する。我々の実験結果は、提案する意味的FSLモデルの有効性を、サンプルノイズの有無に関わらず実証している。

要約(オリジナル)

Over the last couple of years few-shot learning (FSL) has attracted great attention towards minimizing the dependency on labeled training examples. An inherent difficulty in FSL is the handling of ambiguities resulting from having too few training samples per class. To tackle this fundamental challenge in FSL, we aim to train meta-learner models that can leverage prior semantic knowledge about novel classes to guide the classifier synthesis process. In particular, we propose semantically-conditioned feature attention and sample attention mechanisms that estimate the importance of representation dimensions and training instances. We also study the problem of sample noise in FSL, towards the utilization of meta-learners in more realistic and imperfect settings. Our experimental results demonstrate the effectiveness of the proposed semantic FSL model with and without sample noise.

arxiv情報

著者 Orhun Buğra Baran,Ramazan Gökberk Cinbiş
発行日 2023-02-03 13:53:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク