An operator learning perspective on parameter-to-observable maps

要約

パラメータ化された物理モデルの計算効率の高いサロゲートは、科学と工学において重要な役割を果たします。
演算子学習は、関数空間間をマッピングするデータ駆動型のサロゲートを提供します。
ただし、フルフィールド測定の代わりに、多くの場合、利用可能なデータは、モデル入力の有限次元パラメーター化またはモデル出力の有限観測値のみです。
このペーパーでは、フーリエ ニューラル オペレーターに基づいて、このような有限次元ベクトルの入力または出力に対応できるフーリエ ニューラル マッピング (FNM) フレームワークを紹介します。
この論文では、この方法のための普遍近似定理を開発します。
さらに、多くのアプリケーションでは、基礎となるパラメーターからオブザーバブル (PtO) マップは、偏微分方程式の解演算子などの無限次元演算子を通じて暗黙的に定義されます。
当然の疑問は、PtO マップをエンドツーエンドで学習するのと、最初に解演算子を学習してからフィールド全体の解から観測値を計算するのとどちらがデータ効率が高いかということです。
線形関数のベイジアン ノンパラメトリック回帰の理論的分析は、独立した興味深いものですが、エンドツーエンドのアプローチでは実際にはサンプルの複雑さが悪化する可能性があることを示唆しています。
理論を超えて、3 つの非線形 PtO マップの FNM 近似の数値結果は、この論文で採用されているオペレーター学習の観点の利点を示しています。

要約(オリジナル)

Computationally efficient surrogates for parametrized physical models play a crucial role in science and engineering. Operator learning provides data-driven surrogates that map between function spaces. However, instead of full-field measurements, often the available data are only finite-dimensional parametrizations of model inputs or finite observables of model outputs. Building on Fourier Neural Operators, this paper introduces the Fourier Neural Mappings (FNMs) framework that is able to accommodate such finite-dimensional vector inputs or outputs. The paper develops universal approximation theorems for the method. Moreover, in many applications the underlying parameter-to-observable (PtO) map is defined implicitly through an infinite-dimensional operator, such as the solution operator of a partial differential equation. A natural question is whether it is more data-efficient to learn the PtO map end-to-end or first learn the solution operator and subsequently compute the observable from the full-field solution. A theoretical analysis of Bayesian nonparametric regression of linear functionals, which is of independent interest, suggests that the end-to-end approach can actually have worse sample complexity. Extending beyond the theory, numerical results for the FNM approximation of three nonlinear PtO maps demonstrate the benefits of the operator learning perspective that this paper adopts.

arxiv情報

著者 Daniel Zhengyu Huang,Nicholas H. Nelsen,Margaret Trautner
発行日 2024-06-06 17:20:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62G20, 65J15, 68T07, cs.LG, math.ST, stat.ML, stat.TH パーマリンク