要約
ニューラル演算子は、偏微分方程式 (PDE) サロゲート モデルとして最近人気が高まっています。
関数ではなく解汎関数を学習することは、複雑な偏微分方程式に対する高速かつ正確な解を計算するための強力なアプローチであることが証明されています。
さまざまなサロゲート モデリング タスクでニューラル オペレーターのパフォーマンスを評価する多くの研究が行われてきましたが、これらの研究では通常、一度に 1 つの方程式のパフォーマンスを評価します。
この研究では、複数の支配方程式にわたるニューラル オペレーターの汎化を同時に改善する、一般化対比損失を利用した新しい対比事前トレーニング フレームワークを開発します。
支配方程式係数は、システム間のグラウンドトゥルースの類似性を測定するために使用されます。
物理学に基づいたシステム進化と潜在空間モデルの出力の組み合わせが入力データに固定され、距離関数で使用されます。
物理学に基づいた対比事前トレーニングにより、1D および 2D 熱、バーガーズ、および線形移流方程式の固定未来および自己回帰ロールアウト タスクにおけるフーリエ ニューラル演算子の精度が向上することがわかりました。
要約(オリジナル)
Neural operators have recently grown in popularity as Partial Differential Equation (PDE) surrogate models. Learning solution functionals, rather than functions, has proven to be a powerful approach to calculate fast, accurate solutions to complex PDEs. While much work has been done evaluating neural operator performance on a wide variety of surrogate modeling tasks, these works normally evaluate performance on a single equation at a time. In this work, we develop a novel contrastive pretraining framework utilizing Generalized Contrastive Loss that improves neural operator generalization across multiple governing equations simultaneously. Governing equation coefficients are used to measure ground-truth similarity between systems. A combination of physics-informed system evolution and latent-space model output are anchored to input data and used in our distance function. We find that physics-informed contrastive pretraining improves accuracy for the Fourier Neural Operator in fixed-future and autoregressive rollout tasks for the 1D and 2D Heat, Burgers’, and linear advection equations.
arxiv情報
著者 | Cooper Lorsung,Amir Barati Farimani |
発行日 | 2024-09-24 17:31:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google