Neural Fine-Tuning Search for Few-Shot Learning

要約

少数ショット認識では、1 つのクラス セットでトレーニングされた分類器は、素早い新しいクラス セットに迅速に適応して一般化する必要があります。
そのために、最近の研究では、慎重に作成された適応アーキテクチャによる微調整の有効性が示されています。
しかし、これにより、最適な適応戦略をどのように設計できるのかという疑問が生じます。
この論文では、ニューラル アーキテクチャ検索 (NAS) のレンズを通してこの疑問を研究します。
事前にトレーニングされたニューラル ネットワークが与えられると、アルゴリズムはアダプターの最適な配置、どの層をフリーズしたままにし、どの層を微調整するかを検出します。
NAS 手法を残差ネットワークとビジョン トランスフォーマーの両方に適用することでその汎用性を実証し、メタデータセットとメタアルバムに関する最先端のパフォーマンスを報告します。

要約(オリジナル)

In few-shot recognition, a classifier that has been trained on one set of classes is required to rapidly adapt and generalize to a disjoint, novel set of classes. To that end, recent studies have shown the efficacy of fine-tuning with carefully crafted adaptation architectures. However this raises the question of: How can one design the optimal adaptation strategy? In this paper, we study this question through the lens of neural architecture search (NAS). Given a pre-trained neural network, our algorithm discovers the optimal arrangement of adapters, which layers to keep frozen and which to fine-tune. We demonstrate the generality of our NAS method by applying it to both residual networks and vision transformers and report state-of-the-art performance on Meta-Dataset and Meta-Album.

arxiv情報

著者 Panagiotis Eustratiadis,Łukasz Dudziak,Da Li,Timothy Hospedales
発行日 2023-06-15 17:20:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク