要約
幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニューラルネットワークを使用した監視された学習の教師と学生のモデルを検討します。
トレーニングデータの数が入力ディメンションで二次的にスケーリングするレジームのアクティベーション関数について、ネットワークのベイズ最適な一般化エラーを計算します。
$およびデータポイント$ n $は同等です。
私たちの分析は、一般的な重量分布に取り組んでいます。
バイナリの重みに焦点を当て、「普遍的な」フェーズを「専門化」フェーズから分離する不連続な位相遷移を明らかにします。
1つ目は、一般化エラーは重量分布とは無関係であり、サンプリングレート$ n/d^2 $でゆっくりと減衰し、生徒は教師の重量の非線形組み合わせのみを学習します。
後者では、エラーは重量分布依存性であり、教師ネットワークへの生徒のアラインメントにより、より速く減衰します。
したがって、私たちは補間近くの高度に予測的なソリューションの存在を明らかにしますが、それは潜在的に見つけるのが困難です。
要約(オリジナル)
We consider a teacher-student model of supervised learning with a fully-trained 2-layer neural network whose width $k$ and input dimension $d$ are large and proportional. We compute the Bayes-optimal generalisation error of the network for any activation function in the regime where the number of training data $n$ scales quadratically with the input dimension, i.e., around the interpolation threshold where the number of trainable parameters $kd+k$ and of data points $n$ are comparable. Our analysis tackles generic weight distributions. Focusing on binary weights, we uncover a discontinuous phase transition separating a ‘universal’ phase from a ‘specialisation’ phase. In the first, the generalisation error is independent of the weight distribution and decays slowly with the sampling rate $n/d^2$, with the student learning only some non-linear combinations of the teacher weights. In the latter, the error is weight distribution-dependent and decays faster due to the alignment of the student towards the teacher network. We thus unveil the existence of a highly predictive solution near interpolation, which is however potentially hard to find.
arxiv情報
著者 | Jean Barbier,Francesco Camilli,Minh-Toan Nguyen,Mauro Pastore,Rudy Skerk |
発行日 | 2025-01-30 17:56:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google