要約
タイトル:過多なパラメータを持つDeep ReLUニューラルネットワークのベイジアンフリーエネルギー
要約:
– Deep neural networkは、高次元の入力空間上で未知の関数を推定するために有用であることが多くの研究分野で示されている。
– しかし、これらは非同一視や特異な学習機械であるため、理論的な観点からは一般化性能がまだ完全には明らかにされていない。
– また、ReLU関数は微分可能でないため、特異な学習理論の代数的または解析的な手法が適用できない。
– 本論文では、過多なパラメータを持つDeep ReLUニューラルネットワークを研究し、ベイジアンフリーエネルギーが境界であることを証明する。
– さらに、ベイジアン汎化誤差はサンプルサイズ関数のフリーエネルギーの増加と等しいため、Deep ReLUニューラルネットワークが十分に大きく設計されるか、過多にパラメータを持つ状態にある場合でも、ベイジアン汎化誤差は増加しないことが示される。
要約(オリジナル)
In many research fields in artificial intelligence, it has been shown that deep neural networks are useful to estimate unknown functions on high dimensional input spaces. However, their generalization performance is not yet completely clarified from the theoretical point of view because they are nonidentifiable and singular learning machines. Moreover, a ReLU function is not differentiable, to which algebraic or analytic methods in singular learning theory cannot be applied. In this paper, we study a deep ReLU neural network in overparametrized cases and prove that the Bayesian free energy, which is equal to the minus log marginal likelihoodor the Bayesian stochastic complexity, is bounded even if the number of layers are larger than necessary to estimate an unknown data-generating function. Since the Bayesian generalization error is equal to the increase of the free energy as a function of a sample size, our result also shows that the Bayesian generalization error does not increase even if a deep ReLU neural network is designed to be sufficiently large or in an opeverparametrized state.
arxiv情報
著者 | Shuya Nagayasu,Sumio Watanabe |
発行日 | 2023-04-05 09:26:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI