A separability-based approach to quantifying generalization: which layer is best?

要約

ディープラーニングの分類モデルや基礎モデルにおいて、未知のデータへの汎化についてはまだ十分に理解されていない。数発学習、分布外汎化、ドメイン適応の精神に則り、入力空間の新しいバージョンや拡張バージョンに適応するネットワークの能力をどのように評価すればよいのだろうか?ネットワークのどの層が最もよく汎化しそうか?我々は、ネットワークがドメイン内の全てのクラスで訓練されているかどうかに関わらず、サンプリングされたドメインを表現するネットワークの能力を評価する新しい方法を提供する。我々のアプローチは以下の通りである:特定のドメインに関する視覚的分類のために事前に訓練された最先端のモデルを微調整した後、そのドメインの関連するが異なるバリエーションからのデータに対する性能を評価する。汎化能力は、教師なし設定と教師あり設定の両方について、中間層からの未見データの潜在埋め込み量の関数として定量化される。ネットワークの全段階を通じて、我々は、(i)高い分類精度は高い汎化能力を意味しないこと、(ii)モデル内のより深い層が常に最良に汎化するとは限らないこと、これは刈り込みに示唆を与えることを発見した。データセット間で観察された傾向はほぼ一貫しているため、我々のアプローチは、モデルの異なる層が汎化する本質的な能力を明らかにするものであると結論付ける。

要約(オリジナル)

Generalization to unseen data remains poorly understood for deep learning classification and foundation models. How can one assess the ability of networks to adapt to new or extended versions of their input space in the spirit of few-shot learning, out-of-distribution generalization, and domain adaptation? Which layers of a network are likely to generalize best? We provide a new method for evaluating the capacity of networks to represent a sampled domain, regardless of whether the network has been trained on all classes in the domain. Our approach is the following: after fine-tuning state-of-the-art pre-trained models for visual classification on a particular domain, we assess their performance on data from related but distinct variations in that domain. Generalization power is quantified as a function of the latent embeddings of unseen data from intermediate layers for both unsupervised and supervised settings. Working throughout all stages of the network, we find that (i) high classification accuracy does not imply high generalizability; and (ii) deeper layers in a model do not always generalize the best, which has implications for pruning. Since the trends observed across datasets are largely consistent, we conclude that our approach reveals (a function of) the intrinsic capacity of the different layers of a model to generalize.

arxiv情報

著者 Luciano Dyballa,Evan Gerritz,Steven W. Zucker
発行日 2024-05-03 16:03:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, I.2.6 パーマリンク