要約
高忠実度の偏微分方程式(PDE)ソルバーの実行時間は長いため、タイムクリティカルなアプリケーションには不向きである。我々は、減次モデリング(ROM)を用いて、PDEソルバーを高速化することを提案する。従来のROMアプローチは離散化されたベクトル場の次元を縮小するものであったが、本論文のCROM(Continuous Reduced-order Modeling)アプローチは、離散化ではなく連続ベクトル場そのものを低次元に埋め込むものである。この低次元化された多様体を連続微分可能なニューラルフィールドで表現し、連続システムの数値解が多様な手法や離散化で得られた場合でも、利用可能なすべての数値解で学習することができる。ボクセルグリッド、メッシュ、点群から得られる学習データを用いて、広範なPDEに対して本アプローチを検証した。CROMは、線形部分空間直交分解(POD)や非線形多様体ニューラルネットワークベースオートエンコーダなどの離散化依存のROM手法と比較して、高精度、低消費メモリ、動的適応解像度、あらゆる離散化に適用可能であることが特徴です。潜在空間が同じ次元の場合、CROMはPODやオートエンコーダに比べて、それぞれ79$times$と49$times$の精度向上、39$times$と132$times$のメモリフットプリント低減を実現した。実験では、CPUとGPUで、それぞれ109$times$と89$times$の壁クロックの高速化が実証されました。動画とコードはプロジェクトページで公開されています: https://crom-pde.github.io
要約(オリジナル)
The long runtime of high-fidelity partial differential equation (PDE) solvers makes them unsuitable for time-critical applications. We propose to accelerate PDE solvers using reduced-order modeling (ROM). Whereas prior ROM approaches reduce the dimensionality of discretized vector fields, our continuous reduced-order modeling (CROM) approach builds a low-dimensional embedding of the continuous vector fields themselves, not their discretization. We represent this reduced manifold using continuously differentiable neural fields, which may train on any and all available numerical solutions of the continuous system, even when they are obtained using diverse methods or discretizations. We validate our approach on an extensive range of PDEs with training data from voxel grids, meshes, and point clouds. Compared to prior discretization-dependent ROM methods, such as linear subspace proper orthogonal decomposition (POD) and nonlinear manifold neural-network-based autoencoders, CROM features higher accuracy, lower memory consumption, dynamically adaptive resolutions, and applicability to any discretization. For equal latent space dimension, CROM exhibits 79$\times$ and 49$\times$ better accuracy, and 39$\times$ and 132$\times$ smaller memory footprint, than POD and autoencoder methods, respectively. Experiments demonstrate 109$\times$ and 89$\times$ wall-clock speedups over unreduced models on CPUs and GPUs, respectively. Videos and codes are available on the project page: https://crom-pde.github.io
arxiv情報
著者 | Peter Yichen Chen,Jinxu Xiang,Dong Heon Cho,Yue Chang,G A Pershing,Henrique Teles Maia,Maurizio M. Chiaramonte,Kevin Carlberg,Eitan Grinspun |
発行日 | 2023-03-03 15:03:34+00:00 |
arxivサイト | arxiv_id(pdf) |