Data-Guided Physics-Informed Neural Networks for Solving Inverse Problems in Partial Differential Equations

要約

物理情報に基づくニューラル ネットワーク (PINN) は、損失関数を通じて基本的な物理法則をアーキテクチャに統合することにより、科学的機械学習の大幅な進歩を表します。
PINN は、偏微分方程式 (PDE) のさまざまな順問題および逆問題を解決するために適用されることに成功しています。
ただし、逆問題を解く際のトレーニングの初期段階で、顕著な課題が発生する可能性があります。
具体的には、PDE 残留損失が急速に最小限に抑えられる一方で、データ損失は高いままであり、それによって損失期間間の不均衡が悪化して、PINN の全体的な効率が妨げられます。
この課題に対処するために、この研究ではデータ誘導物理情報ニューラル ネットワーク (DG-PINN) と呼ばれる新しいフレームワークを提案します。
DG-PINN フレームワークは、事前トレーニング フェーズと微調整フェーズという 2 つの異なるフェーズで構成されています。
事前トレーニング段階では、データ損失のみを含む損失関数がニューラル ネットワークで最小化されます。
微調整フェーズでは、データ損失、PDE 残留損失、および利用可能な場合は初期条件損失と境界条件損失で構成される複合損失関数が、同じニューラル ネットワーク内で最小化されます。
特に、事前トレーニング段階では、微調整段階が始まる前にデータ損失がすでに低い値であることが保証されます。
このアプローチにより、既存の PINN と比較して、より少ない反復で微調整フェーズを最小の複合損失関数に収束させることができます。
DG-PINN の有効性、耐ノイズ性、効率を検証するために、熱方程式、波動方程式、オイラー – ベルヌーイのビーム方程式、ナビエ – ストークスなど、いくつかの古典的な偏微分方程式に関連する逆問題について広範な数値調査が行われています。
方程式。
数値結果は、DG-PINN がこれらの逆問題を正確に解決でき、トレーニング データのノイズに対する堅牢性を示すことを示しています。

要約(オリジナル)

Physics-informed neural networks (PINNs) represent a significant advancement in scientific machine learning by integrating fundamental physical laws into their architecture through loss functions. PINNs have been successfully applied to solve various forward and inverse problems in partial differential equations (PDEs). However, a notable challenge can emerge during the early training stages when solving inverse problems. Specifically, data losses remain high while PDE residual losses are minimized rapidly, thereby exacerbating the imbalance between loss terms and impeding the overall efficiency of PINNs. To address this challenge, this study proposes a novel framework termed data-guided physics-informed neural networks (DG-PINNs). The DG-PINNs framework is structured into two distinct phases: a pre-training phase and a fine-tuning phase. In the pre-training phase, a loss function with only the data loss is minimized in a neural network. In the fine-tuning phase, a composite loss function, which consists of the data loss, PDE residual loss, and, if available, initial and boundary condition losses, is minimized in the same neural network. Notably, the pre-training phase ensures that the data loss is already at a low value before the fine-tuning phase commences. This approach enables the fine-tuning phase to converge to a minimal composite loss function with fewer iterations compared to existing PINNs. To validate the effectiveness, noise-robustness, and efficiency of DG-PINNs, extensive numerical investigations are conducted on inverse problems related to several classical PDEs, including the heat equation, wave equation, Euler–Bernoulli beam equation, and Navier–Stokes equation. The numerical results demonstrate that DG-PINNs can accurately solve these inverse problems and exhibit robustness against noise in training data.

arxiv情報

著者 Wei Zhou,Y. F. Xu
発行日 2024-07-15 15:47:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク