Improving physics-informed DeepONets with hard constraints

要約

現在の物理学に基づいた (標準またはオペレーター) ニューラル ネットワークは、依然として、解決しているシステムの初期条件を正確に学習することに依存しています。
対照的に、標準的な数値手法は、そのような初期条件を学習する必要なく進化させます。
この研究では、初期条件を学習する必要がなく、予測された解で正確に表現されるように、現在の物理学に基づいた深層学習戦略を改善することを提案します。
さらに、この方法では、DeepONet を複数回適用して解をタイムステップ化した場合に、結果として得られる関数が連続的であることが保証されます。

要約(オリジナル)

Current physics-informed (standard or operator) neural networks still rely on accurately learning the initial conditions of the system they are solving. In contrast, standard numerical methods evolve such initial conditions without needing to learn these. In this study, we propose to improve current physics-informed deep learning strategies such that initial conditions do not need to be learned and are represented exactly in the predicted solution. Moreover, this method guarantees that when a DeepONet is applied multiple times to time step a solution, the resulting function is continuous.

arxiv情報

著者 Rüdiger Brecht,Dmytro R. Popovych,Alex Bihlo,Roman O. Popovych
発行日 2023-09-14 17:48:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, physics.comp-ph パーマリンク