要約
タイトル: LSFSL:Few-shot LearningにおけるShape情報の活用
要約:
– Few-shot learning(FSL)は、限られたサンプルからデータの基本的なパターンを学習するための技術で、人間が限られた経験から学ぶのと同様です。
– 限られたデータのシナリオでは、ショートカット学習やテクスチャバイアスのような深層ニューラルネットワークに関連する課題がさらに悪化します。また、ショートカット学習への取り組みの重要性は、few-shot setupでまだ十分に探究されていません。
– これらの問題に対処するために、私たちはLSFSLを提案し、データに含まれる暗黙の先行情報を活用してモデルがより一般化された特徴を学習するようにしました。包括的な分析により、LSFSLで訓練されたモデルは、データ全体の意味を利用して色の変更、統計的な相関、敵対的な扰動に対してより耐久性があることを示しました。
– 私たちの調査結果は、適切な事前情報をfew-shotアプローチに組み込むことで、堅牢性と汎化性を高める可能性を示しています。
要約(オリジナル)
Few-shot learning (FSL) techniques seek to learn the underlying patterns in data using fewer samples, analogous to how humans learn from limited experience. In this limited-data scenario, the challenges associated with deep neural networks, such as shortcut learning and texture bias behaviors, are further exacerbated. Moreover, the significance of addressing shortcut learning is not yet fully explored in the few-shot setup. To address these issues, we propose LSFSL, which enforces the model to learn more generalizable features utilizing the implicit prior information present in the data. Through comprehensive analyses, we demonstrate that LSFSL-trained models are less vulnerable to alteration in color schemes, statistical correlations, and adversarial perturbations leveraging the global semantics in the data. Our findings highlight the potential of incorporating relevant priors in few-shot approaches to increase robustness and generalization.
arxiv情報
著者 | Deepan Chakravarthi Padmanabhan,Shruthi Gowda,Elahe Arani,Bahram Zonooz |
発行日 | 2023-04-13 16:59:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI