Derivative-enhanced Deep Operator Network

要約

関数空間間のマッピングを学習するニューラル演算子のクラスであるディープ演算子ネットワーク (DeepONet) は、パラメトリック偏微分方程式 (PDE) の代理モデルとして最近開発されました。
この研究では、微分強化ディープ オペレーター ネットワーク (DE-DeepONet) を提案します。これは、微分情報を活用して解の予測精度を向上させ、特にトレーニング データが限られている場合に、解とパラメーターの導関数のより正確な近似を提供します。
DE-DeepONet は、高次元パラメータ入力の線形次元削減を DeepONet に明示的に組み込んでトレーニング コストを削減し、損失関数に微分損失を追加して必要なパラメータと解のペアの数を削減します。
さらに、微分損失の使用を拡張して、フーリエ ニューラル オペレーター (FNO) などの他のニューラル オペレーターを強化できることを示します。
数値実験により、私たちのアプローチの有効性が検証されます。

要約(オリジナル)

The deep operator networks (DeepONet), a class of neural operators that learn mappings between function spaces, have recently been developed as surrogate models for parametric partial differential equations (PDEs). In this work we propose a derivative-enhanced deep operator network (DE-DeepONet), which leverages derivative information to enhance the solution prediction accuracy and provides a more accurate approximation of solution-to-parameter derivatives, especially when training data are limited. DE-DeepONet explicitly incorporates linear dimension reduction of high dimensional parameter input into DeepONet to reduce training cost and adds derivative loss in the loss function to reduce the number of required parameter-solution pairs. We further demonstrate that the use of derivative loss can be extended to enhance other neural operators, such as the Fourier neural operator (FNO). Numerical experiments validate the effectiveness of our approach.

arxiv情報

著者 Yuan Qiu,Nolan Bridges,Peng Chen
発行日 2024-10-30 17:36:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.NA, math.NA パーマリンク