Learning differentiable solvers for systems with hard constraints

要約

タイトル:厳しい制約を持つシステムに対する微分可能なソルバーの学習
要約:

– ニューラルネットワーク(NNs)によって定義される関数に対して、高い精度で部分微分方程式(PDE)の制約を強制する実用的な方法を紹介する。
– 任意のNNアーキテクチャに組み込むことができる微分可能なPDE制約層を開発した。
– この方法は、微分可能最適化と暗黙の関数定理を活用して物理制約を効果的に遵守する。
– 辞書学習に影響を受けた我々のモデルは、PDEパラメータからPDEソリューションへのマッピングを定義する関数の族を学習します。
– 推論時に、モデルは学習された家族の関数の最適な線形組み合わせを求めることによって、PDE制約最適化問題を解決する。
– この方法は、関心領域全体で連続的なソリューションを提供し、所望の物理制約を正確に満たします。
– 無制約の目的でトレーニングするよりも、直接NNアーキテクチャに厳しい制約を組み込むことによって、テストエラーが遥かに低くなることを示す結果を得ました。

要約(オリジナル)

We introduce a practical method to enforce partial differential equation (PDE) constraints for functions defined by neural networks (NNs), with a high degree of accuracy and up to a desired tolerance. We develop a differentiable PDE-constrained layer that can be incorporated into any NN architecture. Our method leverages differentiable optimization and the implicit function theorem to effectively enforce physical constraints. Inspired by dictionary learning, our model learns a family of functions, each of which defines a mapping from PDE parameters to PDE solutions. At inference time, the model finds an optimal linear combination of the functions in the learned family by solving a PDE-constrained optimization problem. Our method provides continuous solutions over the domain of interest that accurately satisfy desired physical constraints. Our results show that incorporating hard constraints directly into the NN architecture achieves much lower test error when compared to training on an unconstrained objective.

arxiv情報

著者 Geoffrey Négiar,Michael W. Mahoney,Aditi S. Krishnapriyan
発行日 2023-04-18 06:30:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク