Multilevel Picard approximations and deep neural networks with ReLU, leaky ReLU, and softplus activation overcome the curse of dimensionality when approximating semilinear parabolic partial differential equations in $L^p$-sense

要約

我々は、マルチレベルピカード近似と、ReLU、リーキーReLU、ソフトプラスアクティベーションを使用したディープニューラルネットワークが、$L^\mathfrak{p}$-sense, $\mathfrak{p}\in [で半線形コルモゴロフ偏微分方程式の解を近似できることを証明します。
勾配に依存しないリプシッツ連続非線形性の場合、2,\infty)$ ですが、マルチレベル ピカード近似の計算量とニューラル ネットワークで必要なパラメータの数は、両次元 $d\in で最大でも多項式に増加します。
\mathbb{N}$ と規定の精度 $\epsilon$ の逆数。

要約(オリジナル)

We prove that multilevel Picard approximations and deep neural networks with ReLU, leaky ReLU, and softplus activation are capable of approximating solutions of semilinear Kolmogorov PDEs in $L^\mathfrak{p}$-sense, $\mathfrak{p}\in [2,\infty)$, in the case of gradient-independent, Lipschitz-continuous nonlinearities, while the computational effort of the multilevel Picard approximations and the required number of parameters in the neural networks grow at most polynomially in both dimension $d\in \mathbb{N}$ and reciprocal of the prescribed accuracy $\epsilon$.

arxiv情報

著者 Ariel Neufeld,Tuan Anh Nguyen
発行日 2024-09-30 15:53:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, math.PR パーマリンク