Solving Parametric PDEs with Radial Basis Functions and Deep Neural Networks

要約

我々は、適切な直交分解(POD)縮小基底法(RBM)のコンテキストで動径基底関数(RBF)とともにディープニューラルネットワーク(DNN)を活用する新しいアルゴリズムであるPOD-DNNを提案します。これは、次のパラメトリックマッピングを近似することを目的としています。
不規則領域上のパラメトリック偏微分方程式。
POD-DNN アルゴリズムは、RBM と DNN の固有のオフライン – オンライン計算戦略と並行して、パラメトリック方程式の解多様体の低次元特性を利用します。
数値実験では、POD-DNN はオンライン段階での計算速度の大幅な加速を実証しました。
DNN を統合せずに RBF を利用する他のアルゴリズムと比較して、POD-DNN はオンライン推論プロセスの計算速度を大幅に向上させます。
さらに、合理的な仮定の下で、POD-DNN によるパラメトリック マッピングの近似の複雑さの上限を厳密に導き出し、それによってアルゴリズムの経験的パフォーマンスの理論的分析を提供しました。

要約(オリジナル)

We propose the POD-DNN, a novel algorithm leveraging deep neural networks (DNNs) along with radial basis functions (RBFs) in the context of the proper orthogonal decomposition (POD) reduced basis method (RBM), aimed at approximating the parametric mapping of parametric partial differential equations on irregular domains. The POD-DNN algorithm capitalizes on the low-dimensional characteristics of the solution manifold for parametric equations, alongside the inherent offline-online computational strategy of RBM and DNNs. In numerical experiments, POD-DNN demonstrates significantly accelerated computation speeds during the online phase. Compared to other algorithms that utilize RBF without integrating DNNs, POD-DNN substantially improves the computational speed in the online inference process. Furthermore, under reasonable assumptions, we have rigorously derived upper bounds on the complexity of approximating parametric mappings with POD-DNN, thereby providing a theoretical analysis of the algorithm’s empirical performance.

arxiv情報

著者 Guanhang Lei,Zhen Lei,Lei Shi,Chenyu Zeng
発行日 2024-04-12 13:47:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク