Deeper-PINNs: Element-wise Multiplication Based Physics-informed Neural Networks

要約

偏微分方程式 (PDE) を解くための有望なフレームワークとして、物理情報に基づいたニューラル ネットワーク (PINN) が産業および科学分野から広く注目されています。
ただし、表現能力の欠如と初期化の病理の問題により、複雑な PDE での PINN の適用が妨げられることが判明しています。
この研究では、これらの問題を解決するために、Deeper Physics-Informed Neural Network (Deeper-PINN) を提案します。
要素ごとの乗算演算を採用して、特徴を高次元の非線形空間に変換します。
Deeper-PINN は、要素ごとの乗算演算の利点を活用して、PINN の初期化の問題を軽減し、PINN の表現能力を強化できます。
提案された構造はさまざまなベンチマークで検証されます。
結果は、Deeper-PINN が初期化病理を効果的に解決し、強力な表現能力を示すことができることを示しています。

要約(オリジナル)

As a promising framework for resolving partial differential equations (PDEs), physics-informed neural networks (PINNs) have received widespread attention from industrial and scientific fields. However, lack of expressive ability and initialization pathology issues are found to prevent the application of PINNs in complex PDEs. In this work, we propose Deeper Physics-Informed Neural Network (Deeper-PINN) to resolve these issues. The element-wise multiplication operation is adopted to transform features into high-dimensional, non-linear spaces. Benefiting from element-wise multiplication operation, Deeper-PINNs can alleviate the initialization pathologies of PINNs and enhance the expressive capability of PINNs. The proposed structure is verified on various benchmarks. The results show that Deeper-PINNs can effectively resolve the initialization pathology and exhibit strong expressive ability.

arxiv情報

著者 Feilong Jiang,Xiaonan Hou,Min Xia
発行日 2024-09-10 15:04:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク