要約
最近の文献の進歩は、現在の数値ソルバーが到達できない偏微分方程式(PDE)の数値解を得るためのディープラーニング手法、特にニューラル演算子の有望な可能性を示している。しかし、既存のデータ駆動型アプローチは、数値PDEソルバー(例えば、有限差分法や有限要素法)によって生成された学習データに依存することが多い。我々は、PDEを数値的に解くことを避ける「後方」データ生成法を導入する。適切な解空間(例えば$H_0^1(˶‾᷄ -̫ ᷅˵)$)からランダムに解の候補$u_j$をサンプリングすることにより、対応する右辺$f_j$を方程式から直接微分して計算する。これにより、データ点ごとにPDEを数値的に解くのではなく、導関数を計算することで学習ペア${(f_j, u_j)}$を生成し、厳密解からなる高速かつ大規模なデータ生成が可能となる。実験によれば、この合成データで学習したモデルは、標準的なソルバーで生成されたデータでテストした場合、よく一般化する。アイデアは単純だが、この方法によって、データ生成に古典的な数値ソルバーに頼らないニューラルPDEソルバーの可能性が広がることを期待している。
要約(オリジナル)
Recent advances in the literature show promising potential of deep learning methods, particularly neural operators, in obtaining numerical solutions to partial differential equations (PDEs) beyond the reach of current numerical solvers. However, existing data-driven approaches often rely on training data produced by numerical PDE solvers (e.g., finite difference or finite element methods). We introduce a ‘backward’ data generation method that avoids solving the PDE numerically: by randomly sampling candidate solutions $u_j$ from the appropriate solution space (e.g., $H_0^1(\Omega)$), we compute the corresponding right-hand side $f_j$ directly from the equation by differentiation. This produces training pairs ${(f_j, u_j)}$ by computing derivatives rather than solving a PDE numerically for each data point, enabling fast, large-scale data generation consisting of exact solutions. Experiments indicate that models trained on this synthetic data generalize well when tested on data produced by standard solvers. While the idea is simple, we hope this method will expand the potential of neural PDE solvers that do not rely on classical numerical solvers to generate their data.
arxiv情報
| 著者 | Erisa Hasani,Rachel A. Ward |
| 発行日 | 2025-05-02 17:02:22+00:00 |
| arxivサイト | arxiv_id(pdf) |