Learning Subgrid-scale Models with Neural Ordinary Differential Equations

要約

ニューラル常微分方程式 (NODE) に基づいて、線の方法とカオス常微分方程式でのそれらの表現によって解かれた偏微分方程式 (PDE) をシミュレートするときに、サブグリッド スケール モデルを学習する新しいアプローチを提案します。
微細な時間的および空間的グリッド スケールを使用してシステムを解くことは、進行中の計算上の課題であり、閉鎖モデルは一般に調整が困難です。
機械学習のアプローチにより、計算流体力学ソルバーの精度と効率が向上しました。
このアプローチでは、ニューラル ネットワークを使用して、粗いグリッドから細かいグリッドへのマップを学習します。これは、サブグリッド スケールのパラメーター化と見なすことができます。
ノードと部分的な知識を使用してソースダイナミクスを継続的なレベルで学習する戦略を提案します。
私たちの方法は NODE の利点を継承し、サブグリッド スケールのパラメーター化、結合演算子の近似、および低次ソルバーの効率の向上に使用できます。
2 スケールの Lorenz 96 ODE、対流拡散偏微分方程式、および粘性 Burgers 偏微分方程式の数値結果を使用して、このアプローチを説明します。

要約(オリジナル)

We propose a new approach to learning the subgrid-scale model when simulating partial differential equations (PDEs) solved by the method of lines and their representation in chaotic ordinary differential equations, based on neural ordinary differential equations (NODEs). Solving systems with fine temporal and spatial grid scales is an ongoing computational challenge, and closure models are generally difficult to tune. Machine learning approaches have increased the accuracy and efficiency of computational fluid dynamics solvers. In this approach neural networks are used to learn the coarse- to fine-grid map, which can be viewed as subgrid-scale parameterization. We propose a strategy that uses the NODE and partial knowledge to learn the source dynamics at a continuous level. Our method inherits the advantages of NODEs and can be used to parameterize subgrid scales, approximate coupling operators, and improve the efficiency of low-order solvers. Numerical results with the two-scale Lorenz 96 ODE, the convection-diffusion PDE, and the viscous Burgers’ PDE are used to illustrate this approach.

arxiv情報

著者 Shinhoo Kang,Emil M. Constantinescu
発行日 2023-03-23 16:53:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, 76M10, cs.CE, cs.LG, cs.NA, math.NA パーマリンク