要約
偏微分方程式 (PDE) 系に対する解演算子の計算による近似は、科学や工学のさまざまな分野で必要とされています。
ニューラル オペレーターは、高忠実度のグラウンド トゥルース データ (数値シミュレーションなど) でトレーニングした後、これらのソリューション ジェネレーターを予測するのに非常に効果的であることが示されています。
ただし、目に見えない空間領域を一般化するには、ニューラル オペレーターは、特定の状況 (例: 患者固有の医療データ、大規模データなど) では取得またはシミュレーションが不可能な、幾何学的に変化する大量のデータ サンプルでトレーニングする必要があります。
私たちは、考えられるすべてのジオメトリを表現するのに十分なデータをサンプリングする必要なく、複数のドメインにわたって一般化できる PDE 解演算子を学習するために、代わりにトレーニングできることを提案します。
異なる幾何学的/空間ドメインから固定参照構成に微分写像された、ほんの数個のグラウンド トゥルース ソリューション フィールド上の潜在ニューラル オペレーター。
さらに、解の形式は、参照ドメインへのマッピング、または参照ドメインからのマッピングの選択に依存します。
これらのマッピングを構築するときに微分演算子のプロパティを保存すると、潜在ニューラル オペレーターがトレーニングする解フィールドの規則性により、正確なモデルを達成するためのデータ要件を大幅に削減できることを強調します。
私たちは、ラプラシアンの共形不変性を利用することにより、この考察の極端なケースを実証する、動機付けとなる数値実験を提供します。
要約(オリジナル)
A computed approximation of the solution operator to a system of partial differential equations (PDEs) is needed in various areas of science and engineering. Neural operators have been shown to be quite effective at predicting these solution generators after training on high-fidelity ground truth data (e.g. numerical simulations). However, in order to generalize well to unseen spatial domains, neural operators must be trained on an extensive amount of geometrically varying data samples that may not be feasible to acquire or simulate in certain contexts (e.g., patient-specific medical data, large-scale computationally intensive simulations.) We propose that in order to learn a PDE solution operator that can generalize across multiple domains without needing to sample enough data expressive enough for all possible geometries, we can train instead a latent neural operator on just a few ground truth solution fields diffeomorphically mapped from different geometric/spatial domains to a fixed reference configuration. Furthermore, the form of the solutions is dependent on the choice of mapping to and from the reference domain. We emphasize that preserving properties of the differential operator when constructing these mappings can significantly reduce the data requirement for achieving an accurate model due to the regularity of the solution fields that the latent neural operator is training on. We provide motivating numerical experimentation that demonstrates an extreme case of this consideration by exploiting the conformal invariance of the Laplacian
arxiv情報
著者 | Zan Ahmad,Shiyi Chen,Minglang Yin,Avisha Kumar,Nicolas Charon,Natalia Trayanova,Mauro Maggioni |
発行日 | 2024-11-29 18:57:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google