Derivative-enhanced Deep Operator Network

要約

関数空間間のマッピングを学習するニューラル演算子のクラスであるディープ演算子ネットワーク (DeepONets) は、パラメトリック偏微分方程式 (PDE) の代理モデルとして最近開発されました。
この研究では、特にトレーニング データが限られている場合に、導関数情報を利用して予測精度を向上させ、導関数のより正確な近似を提供する導関数強化ディープ オペレーター ネットワーク (DE-DeepONet) を提案します。
DE-DeepONet は、DeepONet に入力の次元削減を組み込み、学習用の損失関数に 2 種類の微分ラベル、つまり入力関数に対する出力関数の方向微分と、入力関数に対する出力関数の勾配を含めます。
物理ドメイン変数。
バニラ DeepONet と比較してその有効性を実証するために、複雑さを増す 3 つの異なる方程式で DE-DeepONet をテストします。

要約(オリジナル)

Deep operator networks (DeepONets), a class of neural operators that learn mappings between function spaces, have recently been developed as surrogate models for parametric partial differential equations (PDEs). In this work we propose a derivative-enhanced deep operator network (DE-DeepONet), which leverages the derivative information to enhance the prediction accuracy, and provide a more accurate approximation of the derivatives, especially when the training data are limited. DE-DeepONet incorporates dimension reduction of input into DeepONet and includes two types of derivative labels in the loss function for training, that is, the directional derivatives of the output function with respect to the input function and the gradient of the output function with respect to the physical domain variables. We test DE-DeepONet on three different equations with increasing complexity to demonstrate its effectiveness compared to the vanilla DeepONet.

arxiv情報

著者 Yuan Qiu,Nolan Bridges,Peng Chen
発行日 2024-02-29 15:18:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG, cs.NA, math.NA パーマリンク