Leveraging the two timescale regime to demonstrate convergence of neural networks

要約

タイトル: ニューラルネットワークの収束を示すために2つのタイムスケール領域を利用する

要約:
– 浅いニューラルネットワークのトレーニングダイナミクスを研究しました。
– 内部層のステップサイズが外部層よりもはるかに小さい2つのタイムスケール領域での研究を行いました。
– この領域では、単純な単変量状況で非凸最適化問題の勾配フローがグローバル最適値に収束することを証明します。
– 私たちの結果が成り立つためにニューロンの数は必ずしも漸近的に大きくする必要がなく、ニューロンタンジェントカーネルや平均場領域などの人気のある最近のアプローチとは異なります。
– 実験的なイラストレーションが提供され、確率的勾配降下が勾配フローの説明に従って動作し、したがって2つのタイムスケール領域でグローバル最適値に収束することを示しますが、この領域外では失敗する可能性があることを示します。

要約(オリジナル)

We study the training dynamics of shallow neural networks, in a two-timescale regime in which the stepsizes for the inner layer are much smaller than those for the outer layer. In this regime, we prove convergence of the gradient flow to a global optimum of the non-convex optimization problem in a simple univariate setting. The number of neurons need not be asymptotically large for our result to hold, distinguishing our result from popular recent approaches such as the neural tangent kernel or mean-field regimes. Experimental illustration is provided, showing that the stochastic gradient descent behaves according to our description of the gradient flow and thus converges to a global optimum in the two-timescale regime, but can fail outside of this regime.

arxiv情報

著者 Pierre Marion,Raphaël Berthier
発行日 2023-04-19 11:27:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.OC, stat.ML パーマリンク