Deep Operator Learning Lessens the Curse of Dimensionality for PDEs

要約

ディープニューラルネットワーク(DNN)は多くの領域で目覚ましい成果を上げており、PDE関連問題への応用も急速に進んでいる。本稿では、DNNを用いてバナッハ空間上のリプシッツ作用素を学習する際の汎化誤差の推定を、様々なPDE解作用素への応用を交えて提供する。その目的は、DNNの幅、深さ、一定のテスト誤差を保証するために必要な学習サンプル数を指定することである。データ分布や演算子構造に関する穏やかな仮定の下で、我々の解析は、深演算子学習がPDEsの離散化分解能への依存性を緩和し、それゆえ、楕円方程式、放物型方程式、Burgers方程式を含む多くのPDE関連問題における次元の呪いを軽減できることを示している。また、我々の結果は、作用素学習における離散化不変性についての洞察を与えるために応用される。

要約(オリジナル)

Deep neural networks (DNNs) have achieved remarkable success in numerous domains, and their application to PDE-related problems has been rapidly advancing. This paper provides an estimate for the generalization error of learning Lipschitz operators over Banach spaces using DNNs with applications to various PDE solution operators. The goal is to specify DNN width, depth, and the number of training samples needed to guarantee a certain testing error. Under mild assumptions on data distributions or operator structures, our analysis shows that deep operator learning can have a relaxed dependence on the discretization resolution of PDEs and, hence, lessen the curse of dimensionality in many PDE-related problems including elliptic equations, parabolic equations, and Burgers equations. Our results are also applied to give insights about discretization-invariance in operator learning.

arxiv情報

著者 Ke Chen,Chunmei Wang,Haizhao Yang
発行日 2023-10-03 14:58:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク