要約
分類器の汎化誤差の推定は、多くの場合、検証セットに依存します。
このようなセットは、少数ショットの学習シナリオではほとんど利用できず、この分野では非常に無視されている欠点です。
これらのシナリオでは、事前にトレーニングされたニューラル ネットワークから抽出された特徴を、最近接クラス平均などの距離ベースの分類子と組み合わせて使用するのが一般的です。
この作業では、機能分布のガウス モデルを紹介します。
このモデルのパラメーターを推定することにより、少ないサンプルで新しい分類タスクの一般化エラーを予測できます。
クラス条件付き密度間の正確な距離推定が、汎化パフォーマンスの正確な推定の鍵であることがわかります。
したがって、これらの距離の不偏推定量を提案し、それを数値解析に統合します。
私たちのアプローチが、Leave-one-out 交差検証戦略などの代替手段よりも優れていることを経験的に示しています。
要約(オリジナル)
The estimation of the generalization error of classifiers often relies on a validation set. Such a set is hardly available in few-shot learning scenarios, a highly disregarded shortcoming in the field. In these scenarios, it is common to rely on features extracted from pre-trained neural networks combined with distance-based classifiers such as nearest class mean. In this work, we introduce a Gaussian model of the feature distribution. By estimating the parameters of this model, we are able to predict the generalization error on new classification tasks with few samples. We observe that accurate distance estimates between class-conditional densities are the key to accurate estimates of the generalization performance. Therefore, we propose an unbiased estimator for these distances and integrate it in our numerical analysis. We empirically show that our approach outperforms alternatives such as the leave-one-out cross-validation strategy.
arxiv情報
著者 | Yassir Bendou,Vincent Gripon,Bastien Pasdeloup,Lukas Mauch,Stefan Uhlich,Fabien Cardinaux,Ghouthi Boukli Hacene,Javier Alonso Garcia |
発行日 | 2023-03-28 08:26:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google