LibFewShot: A Comprehensive Library for Few-shot Learning

要約

少数ショット学習、特に少数ショット画像分類は注目を集めており、近年大きな進歩を遂げています。
最近のいくつかの研究では、データ拡張、事前トレーニング、知識の蒸留、自己監視などの多くの一般的な手法または「トリック」が、少数ショット学習法のパフォーマンスを大幅に向上させる可能性があることが暗黙のうちに示されています。
さらに、さまざまな作品がさまざまなソフトウェア プラットフォーム、バックボーン アーキテクチャ、および入力画像サイズを採用している可能性があるため、公正な比較が難しくなり、実務家は再現性に苦労しています。
これらの状況に対処するために、PyTorch で同じ単一のコードベースを使用して統合フレームワークで 18 の最先端の少数ショット学習メソッドを再実装することにより、少数ショット学習 (LibFewShot) の包括的なライブラリを提案します。
さらに、LibFewShot に基づいて、さまざまなバックボーン アーキテクチャを使用した複数のベンチマークで包括的な評価を提供し、さまざまなトレーニング トリックの一般的な落とし穴や効果を評価します。
さらに、メタまたはエピソードトレーニングメカニズムの必要性に関する最近の疑問に関して、私たちの評価結果は、特に事前トレーニングと組み合わせた場合、そのようなメカニズムがまだ必要であることを確認しています。
私たちの研究が、初心者が少数ショット学習の領域に入る障壁を下げるだけでなく、少数ショット学習の本質的な研究を促進するための重要なトリックの効果を解明できることを願っています。
ソース コードは https://github.com/RL-VIG/LibFewShot から入手できます。

要約(オリジナル)

Few-shot learning, especially few-shot image classification, has received increasing attention and witnessed significant advances in recent years. Some recent studies implicitly show that many generic techniques or “tricks”, such as data augmentation, pre-training, knowledge distillation, and self-supervision, may greatly boost the performance of a few-shot learning method. Moreover, different works may employ different software platforms, backbone architectures and input image sizes, making fair comparisons difficult and practitioners struggle with reproducibility. To address these situations, we propose a comprehensive library for few-shot learning (LibFewShot) by re-implementing eighteen state-of-the-art few-shot learning methods in a unified framework with the same single codebase in PyTorch. Furthermore, based on LibFewShot, we provide comprehensive evaluations on multiple benchmarks with various backbone architectures to evaluate common pitfalls and effects of different training tricks. In addition, with respect to the recent doubts on the necessity of meta- or episodic-training mechanism, our evaluation results confirm that such a mechanism is still necessary especially when combined with pre-training. We hope our work can not only lower the barriers for beginners to enter the area of few-shot learning but also elucidate the effects of nontrivial tricks to facilitate intrinsic research on few-shot learning. The source code is available from https://github.com/RL-VIG/LibFewShot.

arxiv情報

著者 Wenbin Li,Ziyi,Wang,Xuesong Yang,Chuanqi Dong,Pinzhuo Tian,Tiexin Qin,Jing Huo,Yinghuan Shi,Lei Wang,Yang Gao,Jiebo Luo
発行日 2022-09-15 14:19:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク