要約
物理情報に基づいたニューラル ネットワーク (PINN) は、次元の呪いによる制約が残っているものの、偏微分方程式 (PDE) の近似において継続的かつますます有望であることが示されています。
この論文では、古典的な変数分離可能な方法の一般化された PINN バージョンを提案します。
これを行うために、まず普遍近似定理を使用して、入力が分離された変数であるニューラル ネットワークの外積によって多変量関数を近似できることを示します。
テンソル分解形式を利用して、PINN 設定の変数を分離します。
PINN フレームワーク内で Canonic Polyadic (CP)、Tensor-Train (TT)、および Tucker 分解形式を採用することで、外積で接続された個別のニューラル ネットワークから多変量関数を学習するための堅牢なアーキテクチャを作成します。
私たちの方法論は、特に 3 次元ヘルムホルツ方程式や 5 次元ポアソン方程式を含む複雑な高次元偏微分方程式の結果が改善されたことから明らかなように、PINN のパフォーマンスを大幅に向上させます。
この研究は、テンソル分解ベースの可変的に分離された PINN が最先端技術を超える可能性を強調し、PDE 近似における次元性の課題に対する説得力のある解決策を提供します。
要約(オリジナル)
Physics-Informed Neural Networks (PINNs) have shown continuous and increasing promise in approximating partial differential equations (PDEs), although they remain constrained by the curse of dimensionality. In this paper, we propose a generalized PINN version of the classical variable separable method. To do this, we first show that, using the universal approximation theorem, a multivariate function can be approximated by the outer product of neural networks, whose inputs are separated variables. We leverage tensor decomposition forms to separate the variables in a PINN setting. By employing Canonic Polyadic (CP), Tensor-Train (TT), and Tucker decomposition forms within the PINN framework, we create robust architectures for learning multivariate functions from separate neural networks connected by outer products. Our methodology significantly enhances the performance of PINNs, as evidenced by improved results on complex high-dimensional PDEs, including the 3d Helmholtz and 5d Poisson equations, among others. This research underscores the potential of tensor decomposition-based variably separated PINNs to surpass the state-of-the-art, offering a compelling solution to the dimensionality challenge in PDE approximation.
arxiv情報
著者 | Sai Karthikeya Vemuri,Tim Büchner,Julia Niebling,Joachim Denzler |
発行日 | 2024-08-23 14:24:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google