Error Bounds for Physics-Informed Neural Networks in Fokker-Planck PDEs

要約

確率微分方程式は確率過程の発展を記述するのに一般的に用いられる。このような過程の状態不確定性は確率密度関数(PDF)で表現するのが最適であり、その進化はフォッカー・プランク偏微分方程式(FP-PDE)によって支配される。しかし、一般にFP-PDEを閉形式で解くことは困難である。本研究では、物理情報ニューラルネットワーク(PINN)を学習することで、解のPDFを近似できることを示す。我々の主な貢献はPINNの近似誤差の解析であり、PINNを用いて厳密な誤差境界を構築する理論的枠組みを開発した。さらに、標準的な学習方法で効率的に構築できる実用的な誤差境界を導出する。この誤差境界の枠組みは、他の線形PDEsの近似解にも一般化できることを議論する。非線形系、高次元系、カオス系に関する実証結果は、我々の誤差境界の正しさを検証するとともに、PINNのスケーラビリティと、モンテカルロ法に比べて正確なPDF解を得るための計算速度の大幅な向上を実証する。

要約(オリジナル)

Stochastic differential equations are commonly used to describe the evolution of stochastic processes. The state uncertainty of such processes is best represented by the probability density function (PDF), whose evolution is governed by the Fokker-Planck partial differential equation (FP-PDE). However, it is generally infeasible to solve the FP-PDE in closed form. In this work, we show that physics-informed neural networks (PINNs) can be trained to approximate the solution PDF. Our main contribution is the analysis of PINN approximation error: we develop a theoretical framework to construct tight error bounds using PINNs. In addition, we derive a practical error bound that can be efficiently constructed with standard training methods. We discuss that this error-bound framework generalizes to approximate solutions of other linear PDEs. Empirical results on nonlinear, high-dimensional, and chaotic systems validate the correctness of our error bounds while demonstrating the scalability of PINNs and their significant computational speedup in obtaining accurate PDF solutions compared to the Monte Carlo approach.

arxiv情報

著者 Chun-Wei Kong,Luca Laurenti,Jay McMahon,Morteza Lahijanian
発行日 2025-03-03 16:16:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NA, math.NA, physics.comp-ph パーマリンク