From Zero-Shot to Few-Shot Learning: A Step of Embedding-Aware Generative Models

要約

埋め込み考慮型生成モデル(EAGM)は、意味的埋め込み空間と視覚的埋め込み空間の間に生成器を構成することにより、ゼロショット学習(ZSL)のデータ不足の問題を解決するものである。あらかじめ定義されたベンチマークとプロトコルのおかげで、ZSLのためのEAGMの提案数は急速に増加している。我々は、一歩下がって、埋め込みを考慮した生成パラダイムを再考する時期に来ていると主張する。本論文の目的は3つある。第一に、ベンチマークデータセットにおける現在の埋め込み特徴が何らかの形で古くなっているという事実を踏まえ、埋め込み特徴に関する恥ずかしいほど簡単な修正で、ZSLに対するEAGMの性能を著しく向上させることである。この結果は、EAGMの埋め込みがもっと注目されるべきことを明らかにするものであり、これは重要な貢献である。第二に、多数のEAGMを詳細に比較・分析する。5つのベンチマークデータセットに基づき、ZSLに関する最先端の結果を更新し、古典的な未見クラス数発学習(UFSL)とより挑戦的な見クラス数発学習(SFSL)を含む数発学習(FSL)に対する強力な基準値を与える。このリポジトリには、ZSLとFSLのためのEAGMのモデル、特徴、パラメータ、および設定が含まれている。本論文の結果はすべて、GASLに基づくたった1つのコマンドラインで容易に再現することができる。

要約(オリジナル)

Embedding-aware generative model (EAGM) addresses the data insufficiency problem for zero-shot learning (ZSL) by constructing a generator between semantic and visual embedding spaces. Thanks to the predefined benchmark and protocols, the number of proposed EAGMs for ZSL is increasing rapidly. We argue that it is time to take a step back and reconsider the embedding-aware generative paradigm. The purpose of this paper is three-fold. First, given the fact that the current embedding features in benchmark datasets are somehow out-of-date, we improve the performance of EAGMs for ZSL remarkably with embarrassedly simple modifications on the embedding features. This is an important contribution, since the results reveal that the embedding of EAGMs deserves more attention. Second, we compare and analyze a significant number of EAGMs in depth. Based on five benchmark datasets, we update the state-of-the-art results for ZSL and give a strong baseline for few-shot learning (FSL), including the classic unseen-class few-shot learning (UFSL) and the more challenging seen-class few-shot learning (SFSL). Finally, a comprehensive generative model repository, namely, generative any-shot learning (GASL) repository, is provided, which contains the models, features, parameters, and settings of EAGMs for ZSL and FSL. Any results in this paper can be readily reproduced with only one command line based on GASL.

arxiv情報

著者 Liangjun Feng,Jiancheng Zhao,Chunhui Zhao
発行日 2023-02-08 13:53:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク