Stochastic Latent Transformer: Efficient Modelling of Stochastically Forced Zonal Jets

要約

確率的偏微分方程式 (SPDE) の効率的な低次数モデリングのための確率的深層学習アプローチである「確率的潜在変換器」を紹介します。
流体力学の深層学習における最近の進歩にもかかわらず、確率的に駆動される流れのモデリングを検討した研究は限られています。これは、巨大惑星のジェットから海洋循環や中緯度の天候の変動に至るまで、幅広い現象を理解する上で重要な役割を果たしています。
モデル アーキテクチャは、変換等価オートエンコーダと組み合わせた確率的強制変換器で構成されており、さまざまな積分期間にわたってシステム ダイナミクスを再現できることが実証されています。
私たちは、よく研究されたゾーン ジェット システムにその有効性を適用し、ニューラル ネットワークが数値積分と比較して 5 桁の高速化を達成したことを実証します。
これにより、大規模なアンサンブルのコスト効率の高い生成が容易になり、自発的な遷移イベントの確率に関する統計的問題の調査が可能になります。

要約(オリジナル)

We introduce the ‘Stochastic Latent Transformer’, a probabilistic deep learning approach for efficient reduced-order modelling of stochastic partial differential equations (SPDEs). Despite recent advances in deep learning for fluid mechanics, limited research has explored modelling stochastically driven flows – which play a crucial role in understanding a broad spectrum of phenomena, from jets on giant planets to ocean circulation and the variability of midlatitude weather. The model architecture consists of a stochastically-forced transformer, paired with a translation-equivariant autoencoder, that we demonstrate is capable of reproducing system dynamics across various integration periods. We demonstrate its effectiveness applied to a well-researched zonal jet system, with the neural network achieving a five-order-of-magnitude speedup compared to numerical integration. This facilitates the cost-effective generation of large ensembles, enabling the exploration of statistical questions concerning probabilities of spontaneous transition events.

arxiv情報

著者 Ira J. S. Shokar,Rich R. Kerswell,Peter H. Haynes
発行日 2023-10-25 16:17:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 35R60, 37N10, 68T07, cs.LG, physics.ao-ph, physics.flu-dyn パーマリンク