要約
訓練されたニューラル ネットワーク (NN) には、支配方程式を閉じるための魅力的な機能があります。
有望な方法は数多くありますが、解の有界条件など、小さなエラーが結果として物理的現実を侵害する場合には、すべて失敗する可能性があります。
NN 定式化は、解の境界性や正値に違反するスプリアス振動を排除するために導入されています。
これは、機械学習クロージャとして離散化方程式に埋め込まれており、双曲保存則の全変動減少法 (TVD) からインスピレーションを得て厳密に制約されています。
この制約は、NN パラメータを再スケーリングすることによって勾配降下トレーニング中に正確に適用され、NN パラメータは明示的な実行可能なセットにマップされます。
実証では、制約付き NN 閉包モデルが、非振動特性を強化しながら、線形および非線形の双曲現象と反拡散を有効に回復することが示されています。
最後に、このモデルは乱流反応流のサブグリッド スケール (SGS) モデリングに適用され、解の境界を侵害するスカラー場でのスプリアス振動が抑制されます。
これは、損失関数の振動に対する単純なペナルティを上回ります。
要約(オリジナル)
Trained neural networks (NN) have attractive features for closing governing equations. There are many methods that are showing promise, but all can fail in cases when small errors consequentially violate physical reality, such as a solution boundedness condition. A NN formulation is introduced to preclude spurious oscillations that violate solution boundedness or positivity. It is embedded in the discretized equations as a machine learning closure and strictly constrained, inspired by total variation diminishing (TVD) methods for hyperbolic conservation laws. The constraint is exactly enforced during gradient-descent training by rescaling the NN parameters, which maps them onto an explicit feasible set. Demonstrations show that the constrained NN closure model usefully recovers linear and nonlinear hyperbolic phenomena and anti-diffusion while enforcing the non-oscillatory property. Finally, the model is applied to subgrid-scale (SGS) modeling of a turbulent reacting flow, for which it suppresses spurious oscillations in scalar fields that otherwise violate the solution boundedness. It outperforms a simple penalization of oscillations in the loss function.
arxiv情報
著者 | Seung Won Suh,Jonathan F MacArt,Luke N Olson,Jonathan B Freund |
発行日 | 2024-11-21 16:52:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google