要約
ディープ ニューラル ネットワーク (DNN) は多くの分野で目覚ましい成功を収めており、PDE 関連の問題への応用が急速に進んでいます。
この論文では、DNN を使用し、さまざまな PDE 解演算子に適用した、バナッハ空間上のリプシッツ演算子の学習の一般化誤差の推定値を提供します。
目標は、特定のテスト エラーを保証するために必要な DNN の幅、深さ、トレーニング サンプルの数を指定することです。
データ分布または演算子構造に関する穏やかな仮定の下で、私たちの分析は、深い演算子学習が偏微分方程式の離散化分解能への依存性を緩和できること、したがって楕円方程式、放物線方程式、
そしてバーガーズ方程式。
私たちの結果は、演算子の学習における離散化不変性に関する洞察を与えるためにも適用されます。
要約(オリジナル)
Deep neural networks (DNNs) have achieved remarkable success in numerous domains, and their application to PDE-related problems has been rapidly advancing. This paper provides an estimate for the generalization error of learning Lipschitz operators over Banach spaces using DNNs with applications to various PDE solution operators. The goal is to specify DNN width, depth, and the number of training samples needed to guarantee a certain testing error. Under mild assumptions on data distributions or operator structures, our analysis shows that deep operator learning can have a relaxed dependence on the discretization resolution of PDEs and, hence, lessen the curse of dimensionality in many PDE-related problems including elliptic equations, parabolic equations, and Burgers equations. Our results are also applied to give insights about discretization-invariant in operator learning.
arxiv情報
著者 | Ke Chen,Chunmei Wang,Haizhao Yang |
発行日 | 2023-05-30 16:07:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google