The Low-Rank Simplicity Bias in Deep Networks

要約

最新のディープ ニューラル ネットワークは、トレーニングの対象となるデータに比べて非常に過剰にパラメータ化されていますが、多くの場合、非常にうまく一般化されています。
最近の研究では、なぜディープ ネットワークがトレーニング データにオーバーフィットしないのかという疑問が投げかけられています。
この作業では、一連の経験的観察を行い、より深いネットワークは誘導的にバイアスされて、有効ランク埋め込みが低いソリューションを見つけるという仮説を調査および拡張します。
このバイアスが存在するのは、低有効ランク埋め込みにマッピングされる関数の量が深さとともに増加するためであると推測します。
私たちの主張が実用的な学習パラダイムの有限幅の線形および非線形モデルに当てはまることを経験的に示し、自然データでは、これらはしばしばうまく一般化されるソリューションであることを示します。
次に、単純化バイアスが初期化時とトレーニング後の両方に存在し、ハイパーパラメーターと学習方法に対して回復力があることを示します。
さらに、深い非線形モデルの線形過剰パラメーター化を使用して低ランクのバイアスを誘発し、モデリング容量を変更せずに CIFAR と ImageNet の一般化パフォーマンスを向上させる方法を示します。

要約(オリジナル)

Modern deep neural networks are highly over-parameterized compared to the data on which they are trained, yet they often generalize remarkably well. A flurry of recent work has asked: why do deep networks not overfit to their training data? In this work, we make a series of empirical observations that investigate and extend the hypothesis that deeper networks are inductively biased to find solutions with lower effective rank embeddings. We conjecture that this bias exists because the volume of functions that maps to low effective rank embedding increases with depth. We show empirically that our claim holds true on finite width linear and non-linear models on practical learning paradigms and show that on natural data, these are often the solutions that generalize well. We then show that the simplicity bias exists at both initialization and after training and is resilient to hyper-parameters and learning methods. We further demonstrate how linear over-parameterization of deep non-linear models can be used to induce low-rank bias, improving generalization performance on CIFAR and ImageNet without changing the modeling capacity.

arxiv情報

著者 Minyoung Huh,Hossein Mobahi,Richard Zhang,Brian Cheung,Pulkit Agrawal,Phillip Isola
発行日 2023-03-23 14:21:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク