Optimal Deep Neural Network Approximation for Korobov Functions with respect to Sobolev Norms

要約

この論文では、コロボフ関数に適用した場合のディープ ニューラル ネットワーク (DNN) のほぼ最適な近似率を確立し、次元性の呪いを効果的に克服します。
この論文で提示される近似結果は、$L_p$ ノルムと $H^1$ ノルムに関して測定されています。
私たちが達成した近似レートは、従来の方法やあらゆる連続関数近似器を上回る、驚くべき「超収束」レートを示しています。
これらの結果は漸近的ではなく、ネットワークの幅と深さの両方を同時に考慮した誤差境界を提供します。

要約(オリジナル)

This paper establishes the nearly optimal rate of approximation for deep neural networks (DNNs) when applied to Korobov functions, effectively overcoming the curse of dimensionality. The approximation results presented in this paper are measured with respect to $L_p$ norms and $H^1$ norms. Our achieved approximation rate demonstrates a remarkable ‘super-convergence’ rate, outperforming traditional methods and any continuous function approximator. These results are non-asymptotic, providing error bounds that consider both the width and depth of the networks simultaneously.

arxiv情報

著者 Yahong Yang,Yulong Lu
発行日 2023-11-08 15:59:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 41A25, 41A46, 65D07, 68Q25, cs.LG, cs.NA, math.NA, stat.ML パーマリンク