Sensitivity-Constrained Fourier Neural Operators for Forward and Inverse Problems in Parametric Differential Equations

要約

du/dt = f(u、x、t、p)の形式のパラメトリック微分方程式は、科学と工学の基本です。
フーリエ神経演算子(FNO)などのディープラーニングフレームワークは、効率的にソリューションを近似することができますが、逆問題、感度推定(DU/DP)、および概念ドリフトに苦労しています。
感度に制約のあるフーリエ神経演算子(SC-FNO)と呼ばれる感度ベースの正規化戦略を導入することにより、これらの制限に対処します。
SC-FNOは、ソリューションパスの予測において高い精度を達成し、物理学に基づいた正則化により標準のFNOおよびFNOを常に上回ります。
パラメーターの反転タスクのパフォーマンスを改善し、スケールを高次元パラメータースペース(最大82のパラメーターでテスト)にスケールし、データとトレーニング要件の両方を削減します。
これらの利益は、トレーニング時間のわずかな増加(エポックあたり30%から130%)で達成され、さまざまなタイプの微分方程式と神経演算子にわたって一般化されます。
コードと選択した実験は、https://github.com/ambehroozi/sc_neural_operatorsで入手できます

要約(オリジナル)

Parametric differential equations of the form du/dt = f(u, x, t, p) are fundamental in science and engineering. While deep learning frameworks such as the Fourier Neural Operator (FNO) can efficiently approximate solutions, they struggle with inverse problems, sensitivity estimation (du/dp), and concept drift. We address these limitations by introducing a sensitivity-based regularization strategy, called Sensitivity-Constrained Fourier Neural Operators (SC-FNO). SC-FNO achieves high accuracy in predicting solution paths and consistently outperforms standard FNO and FNO with physics-informed regularization. It improves performance in parameter inversion tasks, scales to high-dimensional parameter spaces (tested with up to 82 parameters), and reduces both data and training requirements. These gains are achieved with a modest increase in training time (30% to 130% per epoch) and generalize across various types of differential equations and neural operators. Code and selected experiments are available at: https://github.com/AMBehroozi/SC_Neural_Operators

arxiv情報

著者 Abdolmehdi Behroozi,Chaopeng Shen and,Daniel Kifer
発行日 2025-05-13 16:54:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG パーマリンク