Learning a Neural Solver for Parametric PDE to Enhance Physics-Informed Methods

要約

物理情報に基づいた深層学習は、偏微分方程式 (PDE) を解く複雑さのため、最適化の課題に直面することがよくあります。これには、大きな解空間の探索が含まれ、多数の反復が必要となり、トレーニングが不安定になる可能性があります。
これらの課題は、特に損失関数の微分項によって引き起こされる最適化問題の悪条件から発生します。
これらの問題に対処するために、ソルバーを学習すること、つまり、データに基づいてトレーニングされた物理学に基づいた反復アルゴリズムを使用して偏微分方程式を解くことを提案します。
私たちのメソッドは、各 PDE インスタンスに自動的に適応する勾配降下アルゴリズムを調整することを学習し、最適化プロセスを大幅に加速して安定させ、物理認識モデルのより高速な収束を可能にします。
さらに、従来の物理学に基づいた方法は単一の偏微分方程式インスタンスを解決しますが、私たちのアプローチはパラメトリック偏微分方程式に対処します。
具体的には、私たちの方法は物理的損失勾配を PDE パラメーターと統合して、係数、初期条件、または境界条件を含む PDE パラメーターの分布を解決します。
複数のデータセットに対する実証実験を通じて、トレーニングとテスト時の最適化パフォーマンスを比較することで、この方法の有効性を実証します。

要約(オリジナル)

Physics-informed deep learning often faces optimization challenges due to the complexity of solving partial differential equations (PDEs), which involve exploring large solution spaces, require numerous iterations, and can lead to unstable training. These challenges arise particularly from the ill-conditioning of the optimization problem, caused by the differential terms in the loss function. To address these issues, we propose learning a solver, i.e., solving PDEs using a physics-informed iterative algorithm trained on data. Our method learns to condition a gradient descent algorithm that automatically adapts to each PDE instance, significantly accelerating and stabilizing the optimization process and enabling faster convergence of physics-aware models. Furthermore, while traditional physics-informed methods solve for a single PDE instance, our approach addresses parametric PDEs. Specifically, our method integrates the physical loss gradient with the PDE parameters to solve over a distribution of PDE parameters, including coefficients, initial conditions, or boundary conditions. We demonstrate the effectiveness of our method through empirical experiments on multiple datasets, comparing training and test-time optimization performance.

arxiv情報

著者 Lise Le Boudec,Emmanuel de Bezenac,Louis Serrano,Ramon Daniel Regueiro-Espino,Yuan Yin,Patrick Gallinari
発行日 2024-10-11 16:17:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク