Beyond Derivative Pathology of PINNs: Variable Splitting Strategy with Convergence Analysis

要約

物理情報に基づくニューラル ネットワーク (PINN) は、さまざまな問題における偏微分方程式 (PDE) を解くための効果的な方法として最近登場しました。
PINN は頻繁に予測が不正確になるため、PINN の故障モードに重点を置いた研究が行われています。
ただし、そのほとんどは、損失関数をゼロに最小化することでネットワークが支配 PDE の解に収束するという前提に基づいています。
この研究では、PINN が前提が無効であるという根本的な問題に遭遇することを証明します。
また、この問題は、予測された解の導関数の動作を制御できないことに起因していることも明らかにします。
PINN の \textit{派生的病理学} に触発されて、我々は、解の勾配を補助変数としてパラメータ化することでこの問題に対処する \textit{変数分割} 戦略を提案します。
補助変数を使用すると、予測された解の勾配の直接監視と制御が可能になるため、派生的な病理が回避されることを実証します。
さらに、提案した方法が 2 次線形偏微分方程式の一般化解への収束を保証し、さまざまな問題への適用可能性を示します。

要約(オリジナル)

Physics-informed neural networks (PINNs) have recently emerged as effective methods for solving partial differential equations (PDEs) in various problems. Substantial research focuses on the failure modes of PINNs due to their frequent inaccuracies in predictions. However, most are based on the premise that minimizing the loss function to zero causes the network to converge to a solution of the governing PDE. In this study, we prove that PINNs encounter a fundamental issue that the premise is invalid. We also reveal that this issue stems from the inability to regulate the behavior of the derivatives of the predicted solution. Inspired by the \textit{derivative pathology} of PINNs, we propose a \textit{variable splitting} strategy that addresses this issue by parameterizing the gradient of the solution as an auxiliary variable. We demonstrate that using the auxiliary variable eludes derivative pathology by enabling direct monitoring and regulation of the gradient of the predicted solution. Moreover, we prove that the proposed method guarantees convergence to a generalized solution for second-order linear PDEs, indicating its applicability to various problems.

arxiv情報

著者 Yesom Park,Changhoon Song,Myungjoo Kang
発行日 2024-09-30 15:20:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク