要約
偏微分方程式のディープ ニューラル ネットワーク ベースのサロゲートは、最近ますます関心を集めています。
ただし、数値的に対応するものと同様に、システムの基礎となるダイナミクスが類似している場合でも、アプリケーション間で異なる手法が使用されます。
顕著な例は、数値流体力学におけるラグランジュおよびオイラーの仕様であり、グリッドベースの動力学とは対照的に、ニューラル ネットワークが粒子を効果的にモデル化するという課題を引き起こしています。
ラグランジュ離散化スキームとオイラー離散化スキームの両方について、幅広い時空間問題をモデル化する新しい学習パラダイムである Universal Physics Transformers (UPT) を紹介します。
UPT はグリッドまたはパーティクルベースの潜在構造なしで動作するため、メッシュとパーティクル全体にわたる柔軟性が可能になります。
UPT は潜在空間内のダイナミクスを効率的に伝播し、逆エンコードおよびデコード技術によって強調されます。
最後に、UPT により、時空の任意の時点での潜在空間表現のクエリが可能になります。
メッシュベースの流体シミュレーション、定常状態のレイノルズ平均ナビエ・ストークス シミュレーション、およびラグランジュベースのダイナミクスにおける UPT の有効性を実証します。
プロジェクトページ:https://ml-jku.github.io/UPT
要約(オリジナル)
Deep neural network based surrogates for partial differential equations have recently gained increased interest. However, akin to their numerical counterparts, different techniques are used across applications, even if the underlying dynamics of the systems are similar. A prominent example is the Lagrangian and Eulerian specification in computational fluid dynamics, posing a challenge for neural networks to effectively model particle- as opposed to grid-based dynamics. We introduce Universal Physics Transformers (UPTs), a novel learning paradigm which models a wide range of spatio-temporal problems – both for Lagrangian and Eulerian discretization schemes. UPTs operate without grid- or particle-based latent structures, enabling flexibility across meshes and particles. UPTs efficiently propagate dynamics in the latent space, emphasized by inverse encoding and decoding techniques. Finally, UPTs allow for queries of the latent space representation at any point in space-time. We demonstrate the efficacy of UPTs in mesh-based fluid simulations, steady-state Reynolds averaged Navier-Stokes simulations, and Lagrangian-based dynamics. Project page: https://ml-jku.github.io/UPT
arxiv情報
著者 | Benedikt Alkin,Andreas Fürst,Simon Schmid,Lukas Gruber,Markus Holzleitner,Johannes Brandstetter |
発行日 | 2024-02-19 18:52:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google