要約
この論文では、非定常および非線形偏微分方程式 (PDE) を正確にモデル化するための、transient-CoMLSim というドメイン分解ベースの深層学習 (DL) フレームワークを提案します。
このフレームワークは、(a) 畳み込みニューラル ネットワーク (CNN) ベースの自動エンコーダ アーキテクチャと、(b) 完全に接続された層で構成される自己回帰モデルの 2 つの主要なコンポーネントで構成されます。
計算ドメイン全体で動作する既存の最先端の手法とは異なり、当社の CNN ベースのオートエンコーダーは、サブドメインで表現される解フィールドと条件フィールドの低次元基底を計算します。
タイムステッピングは完全に潜在空間内で実行され、解と条件変数の埋め込みの時間履歴から解変数の埋め込みが生成されます。
このアプローチは計算の複雑さを軽減するだけでなく、スケーラビリティも強化するため、大規模なシミュレーションに適しています。
さらに、ロールアウトの安定性を向上させるために、自己回帰モデルのトレーニング中にカリキュラム学習 (CL) アプローチを採用しています。
ドメイン分割戦略により、予測の精度を維持しながら、分布外のドメイン サイズへのスケーリングが可能になります。この機能は、物理シミュレーションの一般的な DL ベースのアプローチには簡単に統合できません。
私たちは、広く使用されている 2 つの DL アーキテクチャ、フーリエ ニューラル オペレーター (FNO) と U-Net に対してモデルのベンチマークを行い、精度、目に見えないタイムステップへの外挿、および幅広いユースケースに対する安定性の点で、私たちのフレームワークがそれらを上回ることを実証しました。
要約(オリジナル)
In this paper, we propose a domain-decomposition-based deep learning (DL) framework, named transient-CoMLSim, for accurately modeling unsteady and nonlinear partial differential equations (PDEs). The framework consists of two key components: (a) a convolutional neural network (CNN)-based autoencoder architecture and (b) an autoregressive model composed of fully connected layers. Unlike existing state-of-the-art methods that operate on the entire computational domain, our CNN-based autoencoder computes a lower-dimensional basis for solution and condition fields represented on subdomains. Timestepping is performed entirely in the latent space, generating embeddings of the solution variables from the time history of embeddings of solution and condition variables. This approach not only reduces computational complexity but also enhances scalability, making it well-suited for large-scale simulations. Furthermore, to improve the stability of our rollouts, we employ a curriculum learning (CL) approach during the training of the autoregressive model. The domain-decomposition strategy enables scaling to out-of-distribution domain sizes while maintaining the accuracy of predictions — a feature not easily integrated into popular DL-based approaches for physics simulations. We benchmark our model against two widely-used DL architectures, Fourier Neural Operator (FNO) and U-Net, and demonstrate that our framework outperforms them in terms of accuracy, extrapolation to unseen timesteps, and stability for a wide range of use cases.
arxiv情報
著者 | Sheel Nidhan,Haoliang Jiang,Lalit Ghule,Clancy Umphrey,Rishikesh Ranade,Jay Pathak |
発行日 | 2024-08-27 16:43:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google