要約
タイトル:Latent Spectral Modelsを用いた高次元PDEの解決
要約:
– 深層モデルは、偏微分方程式(PDE)の解決において驚くべき進歩を達成している。
– 新興パラダイムはニューラルオペレータを学習してPDEの入出力マッピングを近似することである。
– 以前の深層モデルは、多重スケールアーキテクチャや様々なオペレータデザインを探索してきたが、座標空間全体でオペレータを学習することに限定されている。
– 現実の物理学問題では、数値ソルバーが高次元の座標空間への離散化に依存しており、単一のオペレータによる正確な近似はできず、次元の呪いによって効率的に学習することもできない。
– 我々は、高次元PDEの効率的で正確なソルバーに向けて、Latent Spectral Models(LSM)を提案する。
– LSMは、座標空間を超えて、注目ベースの階層的投影ネットワークを可能にし、線形時間で高次元データをコンパクトな潜在空間に削減する。
– 数値解析の古典的なスペクトル法に着想を得て、PDEを潜在空間で解くニューラルスペクトルブロックを設計し、複数の基底オペレータを学習して複雑な入出力マッピングを近似し、収束と近似に関する素晴らしい理論的保証を享受する。
– 実験的に、LSMは一貫した最先端の性能を発揮し、固体物理学と流体物理学の両方をカバーする7つのベンチマークで平均11.5%の相対誤差削減を達成する。
要約(オリジナル)
Deep models have achieved impressive progress in solving partial differential equations (PDEs). A burgeoning paradigm is learning neural operators to approximate the input-output mappings of PDEs. While previous deep models have explored the multiscale architectures and various operator designs, they are limited to learning the operators as a whole in the coordinate space. In real physical science problems, PDEs are complex coupled equations with numerical solvers relying on discretization into high-dimensional coordinate space, which cannot be precisely approximated by a single operator nor efficiently learned due to the curse of dimensionality. We present Latent Spectral Models (LSM) toward an efficient and precise solver for high-dimensional PDEs. Going beyond the coordinate space, LSM enables an attention-based hierarchical projection network to reduce the high-dimensional data into a compact latent space in linear time. Inspired by classical spectral methods in numerical analysis, we design a neural spectral block to solve PDEs in the latent space that approximates complex input-output mappings via learning multiple basis operators, enjoying nice theoretical guarantees for convergence and approximation. Experimentally, LSM achieves consistent state-of-the-art and yields a relative error reduction of 11.5% averaged on seven benchmarks covering both solid and fluid physics.
arxiv情報
著者 | Haixu Wu,Tengge Hu,Huakun Luo,Jianmin Wang,Mingsheng Long |
発行日 | 2023-04-10 09:35:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI