Improving physics-informed DeepONets with hard constraints

要約

現在の物理学に基づいた (標準またはディープ オペレーター) ニューラル ネットワークは、依然として、解いている微分方程式系の初期条件および/または境界条件を正確に学習することに依存しています。
対照的に、標準的な数値手法では、学習する必要がなく、そのような条件が計算に含まれます。
この研究では、初期条件や境界条件を学習する必要がなく、予測された解で正確に表現されるように、現在の物理学に基づいた深層学習戦略を改善することを提案します。
さらに、この方法は、初期値問題の解法をタイムステップ化するために深いオペレーター ネットワークを複数回適用した場合に、結果として得られる関数が少なくとも連続的であることを保証します。

要約(オリジナル)

Current physics-informed (standard or deep operator) neural networks still rely on accurately learning the initial and/or boundary conditions of the system of differential equations they are solving. In contrast, standard numerical methods involve such conditions in computations without needing to learn them. In this study, we propose to improve current physics-informed deep learning strategies such that initial and/or boundary conditions do not need to be learned and are represented exactly in the predicted solution. Moreover, this method guarantees that when a deep operator network is applied multiple times to time-step a solution of an initial value problem, the resulting function is at least continuous.

arxiv情報

著者 Rüdiger Brecht,Dmytro R. Popovych,Alex Bihlo,Roman O. Popovych
発行日 2024-06-24 17:54:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, physics.comp-ph パーマリンク