要約
物理学に基づくニューラル ネットワーク (PINN) を使用して、通常は偏微分方程式 (PDE) によって記述される支配物理学から複雑なダイナミクスを効率的に学習するための新しい損失定式化を提示します。
私たちの実験では、既存のバージョンの PINN は、多くの問題、特に複雑なジオメトリの場合、学習が不十分であることがわかります。これは、境界付近の領域で適切なサンプリング戦略を確立することがますます難しくなっているためです。
過度に密集したサンプリングは、局所勾配動作が複雑すぎて PINN で適切にモデル化できない場合、トレーニングの収束を妨げる可能性があります。
一方、サンプルがまばらすぎると、既存の PINN が境界付近の領域にオーバーフィットする傾向があり、解が正しくなくなります。
このような問題を防ぐために、PINN の境界での勾配挙動に線形局所構造近似 (LSA) を提供する新しい境界接続 (BCXN) 損失関数を提案します。
私たちの BCXN 損失は、トレーニング中に暗黙的にローカル構造を課すため、問題領域全体で物理学に基づいた高速な学習を促進し、桁違いにまばらなトレーニング サンプルを使用します。
この LSA-PINN メソッドは、標準の L2 ノルム メトリックに関して既存のメソッドよりも数桁小さいエラーを示しますが、使用するトレーニング サンプルと反復は劇的に少なくなります。
提案された LSA-PINN は、ネットワークの微分可能なプロパティに要件を課しません。現在の PINN 文献で一般的に使用されているように、多層パーセプトロンと畳み込みニューラル ネットワークの両方のバージョンで、その利点と実装の容易さを示します。
要約(オリジナル)
We present a novel loss formulation for efficient learning of complex dynamics from governing physics, typically described by partial differential equations (PDEs), using physics-informed neural networks (PINNs). In our experiments, existing versions of PINNs are seen to learn poorly in many problems, especially for complex geometries, as it becomes increasingly difficult to establish appropriate sampling strategy at the near boundary region. Overly dense sampling can adversely impede training convergence if the local gradient behaviors are too complex to be adequately modelled by PINNs. On the other hand, if the samples are too sparse, existing PINNs tend to overfit the near boundary region, leading to incorrect solution. To prevent such issues, we propose a new Boundary Connectivity (BCXN) loss function which provides linear local structure approximation (LSA) to the gradient behaviors at the boundary for PINN. Our BCXN-loss implicitly imposes local structure during training, thus facilitating fast physics-informed learning across entire problem domains with order of magnitude sparser training samples. This LSA-PINN method shows a few orders of magnitude smaller errors than existing methods in terms of the standard L2-norm metric, while using dramatically fewer training samples and iterations. Our proposed LSA-PINN does not pose any requirement on the differentiable property of the networks, and we demonstrate its benefits and ease of implementation on both multi-layer perceptron and convolutional neural network versions as commonly used in current PINN literature.
arxiv情報
| 著者 | Jian Cheng Wong,Pao-Hsiung Chiu,Chinchun Ooi,My Ha Dao,Yew-Soon Ong |
| 発行日 | 2023-03-02 15:36:08+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google