要約
圧縮性乱流の解析は、推進、エネルギー生成、環境に関連するアプリケーションには不可欠です。
ここでは、34 の高忠実度の直接数値シミュレーションからの 744 個のフルドメイン サンプルを含む 2.2 TB のデータセット ネットワークである BLASTNet 2.0 を紹介します。これは、現在利用可能な 3D 高忠実度の反応および非反応圧縮性乱流シミュレーションの制限された利用に対処します。
データ。
このデータを使用して、3D 超解像度の 5 つの深層学習アプローチの合計 49 のバリエーションをベンチマークします。これは、科学的イメージング、シミュレーション、乱流モデル、およびコンピューター ビジョン アプリケーションの改善に適用できます。
これらのモデルに対してニューラル スケーリング分析を実行し、2 つの科学 ML 手法を含むさまざまな機械学習 (ML) アプローチのパフォーマンスを検査します。
我々は、(i) 予測パフォーマンスはモデルのサイズとコストに応じて拡張できること、(ii) アーキテクチャは、特に小規模なモデルの場合に非常に重要であること、(iii) 物理ベースの損失の利点はモデル サイズが増加しても持続できることを実証します。
このベンチマーク研究の結果は、特に乱流モデルの 3D 超解像度モデルの設計に役立つ洞察を提供すると期待されており、このデータは広範囲の流れ物理アプリケーションのための ML 手法を促進することが期待されています。
このデータは、https://blastnet.github.io に統合されたダウンロード リンクと閲覧ツールを使用して公開されています。
要約(オリジナル)
Analysis of compressible turbulent flows is essential for applications related to propulsion, energy generation, and the environment. Here, we present BLASTNet 2.0, a 2.2 TB network-of-datasets containing 744 full-domain samples from 34 high-fidelity direct numerical simulations, which addresses the current limited availability of 3D high-fidelity reacting and non-reacting compressible turbulent flow simulation data. With this data, we benchmark a total of 49 variations of five deep learning approaches for 3D super-resolution – which can be applied for improving scientific imaging, simulations, turbulence models, as well as in computer vision applications. We perform neural scaling analysis on these models to examine the performance of different machine learning (ML) approaches, including two scientific ML techniques. We demonstrate that (i) predictive performance can scale with model size and cost, (ii) architecture matters significantly, especially for smaller models, and (iii) the benefits of physics-based losses can persist with increasing model size. The outcomes of this benchmark study are anticipated to offer insights that can aid the design of 3D super-resolution models, especially for turbulence models, while this data is expected to foster ML methods for a broad range of flow physics applications. This data is publicly available with download links and browsing tools consolidated at https://blastnet.github.io.
arxiv情報
著者 | Wai Tong Chung,Bassem Akoush,Pushan Sharma,Alex Tamkin,Ki Sung Jung,Jacqueline H. Chen,Jack Guo,Davy Brouzet,Mohsen Talei,Bruno Savard,Alexei Y. Poludnenko,Matthias Ihme |
発行日 | 2023-09-26 16:06:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google