Discovering Artificial Viscosity Models for Discontinuous Galerkin Approximation of Conservation Laws using Physics-Informed Machine Learning

要約

有限要素ベースの保存則の高次ソルバーは高い精度を提供しますが、ギブス現象による不連続に近い課題に直面しています。
人工粘度は、物理的洞察に基づいてこの問題に対する一般的かつ効果的な解決策です。
この研究では、教師なしパラダイムにおける人工粘性モデルの発見を自動化する、物理学に基づいた機械学習アルゴリズムを紹介します。
このアルゴリズムは強化学習からインスピレーションを得ており、自動微分により基準解との差として定義される損失を最小限に抑えることで、セルごとに動作するニューラル ネットワーク (粘度モデル) をトレーニングします。
これにより、データセットを使用しないトレーニング手順が可能になります。
我々は、このアルゴリズムを最先端のルンゲ・クッタ不連続ガラーキン ソルバーに統合することにより、このアルゴリズムが有効であることを証明しました。
1 次元および 2 次元のバーガー方程式やオイラー方程式などのスカラー問題およびベクトル問題に関する数値テストをいくつか紹介します。
結果は、提案されたアプローチが古典的な粘度モデルを上回るパフォーマンスを発揮できるモデルをトレーニングすることを示しています。
さらに、学習された人工粘度モデルがさまざまな問題やパラメーターにわたって一般化できることを示します。

要約(オリジナル)

Finite element-based high-order solvers of conservation laws offer large accuracy but face challenges near discontinuities due to the Gibbs phenomenon. Artificial viscosity is a popular and effective solution to this problem based on physical insight. In this work, we present a physics-informed machine learning algorithm to automate the discovery of artificial viscosity models in a non-supervised paradigm. The algorithm is inspired by reinforcement learning and trains a neural network acting cell-by-cell (the viscosity model) by minimizing a loss defined as the difference with respect to a reference solution thanks to automatic differentiation. This enables a dataset-free training procedure. We prove that the algorithm is effective by integrating it into a state-of-the-art Runge-Kutta discontinuous Galerkin solver. We showcase several numerical tests on scalar and vectorial problems, such as Burgers’ and Euler’s equations in one and two dimensions. Results demonstrate that the proposed approach trains a model that is able to outperform classical viscosity models. Moreover, we show that the learnt artificial viscosity model is able to generalize across different problems and parameters.

arxiv情報

著者 Matteo Caldana,Paola F. Antonietti,Luca Dede’
発行日 2024-08-05 16:02:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 35L65, 65M60, 68T01, cs.LG, cs.NA, math.NA パーマリンク