Solving Differential Equations with Constrained Learning

要約

(部分)微分方程式(PDE)は、自然現象を記述するための基本的なツールであり、科学と工学においてソリューションを不可欠にしています。
有限要素法などの従来の方法は信頼できるソリューションを提供しますが、それらの精度は多くの場合、計算集中的な微細メッシュの使用に結び付けられています。
さらに、それらは自然に測定や以前の解決策を考慮しておらず、問題パラメーターの変更は結果を完全に再計算する必要があります。
物理学に基づいたニューラルネットワークやニューラル演算子などのニューラルネットワークベースのアプローチは、これらのモデルをPDEソリューションに直接適合させることにより、メッシュフリーの代替品を提供します。
また、追加のトレーニング損失を集約するだけで、事前知識を統合し、PDEの家族全員に取り組むこともできます。
それにもかかわらず、それらは、コロケーションポイントや各損失に関連する重みなどのハイパーパラメーターに非常に敏感です。
このペーパーでは、科学制約の学習(SCL)フレームワークを開発することにより、これらの課題に対処します。
PDEの(弱い)ソリューションを見つけることは、最悪の喪失の制約された学習問題を解決することと同等であることを示しています。
これは、集約された損失の期待値を最小限に抑える以前の方法の制限を説明しています。
SCLはまた、構造的制約(例:Invariance)および(部分的な)測定または既知のソリューションを有機的に統合します。
結果として得られる制約された学習問題は、さまざまなPDE、ニューラルネットワークアーキテクチャ、および大規模なハイパーパラメーターチューニングなしで、場合によっては低い計算コストでさえ、正確なソリューション、ニューラルネットワークアーキテクチャ、および事前知識レベルをもたらす実用的なアルゴリズムを使用して取り組むことができます。

要約(オリジナル)

(Partial) differential equations (PDEs) are fundamental tools for describing natural phenomena, making their solution crucial in science and engineering. While traditional methods, such as the finite element method, provide reliable solutions, their accuracy is often tied to the use of computationally intensive fine meshes. Moreover, they do not naturally account for measurements or prior solutions, and any change in the problem parameters requires results to be fully recomputed. Neural network-based approaches, such as physics-informed neural networks and neural operators, offer a mesh-free alternative by directly fitting those models to the PDE solution. They can also integrate prior knowledge and tackle entire families of PDEs by simply aggregating additional training losses. Nevertheless, they are highly sensitive to hyperparameters such as collocation points and the weights associated with each loss. This paper addresses these challenges by developing a science-constrained learning (SCL) framework. It demonstrates that finding a (weak) solution of a PDE is equivalent to solving a constrained learning problem with worst-case losses. This explains the limitations of previous methods that minimize the expected value of aggregated losses. SCL also organically integrates structural constraints (e.g., invariances) and (partial) measurements or known solutions. The resulting constrained learning problems can be tackled using a practical algorithm that yields accurate solutions across a variety of PDEs, neural network architectures, and prior knowledge levels without extensive hyperparameter tuning and sometimes even at a lower computational cost.

arxiv情報

著者 Viggo Moro,Luiz F. O. Chamon
発行日 2025-03-10 15:22:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG パーマリンク