要約
深層学習の分類モデルと基礎モデルについては、目に見えないデータへの一般化はまだよく理解されていません。
少数ショット学習、分散外一般化、およびドメイン適応の精神に基づいて、ネットワークが入力空間の新しいバージョンまたは拡張バージョンに適応する能力をどのように評価できるでしょうか?
ネットワークのどの層が最も一般化されやすいでしょうか?
ネットワークがドメイン内のすべてのクラスでトレーニングされているかどうかに関係なく、サンプリングされたドメインを表すネットワークの能力を評価するための新しい方法を提供します。
私たちのアプローチは次のとおりです。特定のドメインで視覚的に分類するために最先端の事前トレーニング済みモデルを微調整した後、そのドメイン内の関連するが異なるバリエーションからのデータに対するパフォーマンスを評価します。
一般化力は、教師なし設定と教師あり設定の両方について、中間層からの目に見えないデータの潜在的な埋め込みの関数として定量化されます。
ネットワークのすべての段階を通して作業を行った結果、(i) 高い分類精度は高い一般化性を意味するものではないことがわかります。
(ii) モデルのより深い層が必ずしも最適なものを一般化するとは限らず、これは枝刈りに影響を及ぼします。
データセット全体で観察された傾向はほぼ一貫しているため、私たちのアプローチは、モデルのさまざまな層の固有の一般化能力 (の関数) を明らかにしていると結論付けます。
要約(オリジナル)
Generalization to unseen data remains poorly understood for deep learning classification and foundation models. How can one assess the ability of networks to adapt to new or extended versions of their input space in the spirit of few-shot learning, out-of-distribution generalization, and domain adaptation? Which layers of a network are likely to generalize best? We provide a new method for evaluating the capacity of networks to represent a sampled domain, regardless of whether the network has been trained on all classes in the domain. Our approach is the following: after fine-tuning state-of-the-art pre-trained models for visual classification on a particular domain, we assess their performance on data from related but distinct variations in that domain. Generalization power is quantified as a function of the latent embeddings of unseen data from intermediate layers for both unsupervised and supervised settings. Working throughout all stages of the network, we find that (i) high classification accuracy does not imply high generalizability; and (ii) deeper layers in a model do not always generalize the best, which has implications for pruning. Since the trends observed across datasets are largely consistent, we conclude that our approach reveals (a function of) the intrinsic capacity of the different layers of a model to generalize.
arxiv情報
著者 | Luciano Dyballa,Evan Gerritz,Steven W. Zucker |
発行日 | 2024-05-02 17:54:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google