要約
深層学習を使用して低解像度シミュレーションの品質を向上させることで、粗い数値流体力学 (CFD) 問題の空間離散化誤差を削減する方法を提案します。
モデルを粗いグリッドの離散化に投影した後、細かいグリッド データをモデルに供給します。
対流項のデフォルトの差分スキームをフィードフォワード ニューラル ネットワークで置き換えます。フィードフォワード ニューラル ネットワークは、セルの中心から面値まで速度を補間して、ダウンサンプリングされた細かいグリッド データによく近似する速度を生成します。
深層学習フレームワークにはオープンソース CFD コード OpenFOAM が組み込まれており、その結果、エンドツーエンドの微分可能なモデルが実現します。
離散随伴コード バージョンを使用して CFD 物理を自動的に区別します。
トレーニング プロセスを加速する TensorFlow (Python) と OpenFOAM (c++) 間の高速通信方法を紹介します。
このモデルを四角柱を通過する流れの問題に適用したところ、x8 の粗いメッシュを使用した従来のソルバーと比較して、トレーニング分布内のシミュレーションの速度の誤差が 120% から 25% に減少しました。
トレーニング分布外のシミュレーションでは、速度の誤差は約 50% 減少しました。
アーキテクチャが物理学の局所的な特徴を利用しているため、トレーニングは時間とデータ サンプルの点で手頃な価格です。
要約(オリジナル)
We propose a method for reducing the spatial discretization error of coarse computational fluid dynamics (CFD) problems by enhancing the quality of low-resolution simulations using deep learning. We feed the model with fine-grid data after projecting it to the coarse-grid discretization. We substitute the default differencing scheme for the convection term by a feed-forward neural network that interpolates velocities from cell centers to face values to produce velocities that approximate the down-sampled fine-grid data well. The deep learning framework incorporates the open-source CFD code OpenFOAM, resulting in an end-to-end differentiable model. We automatically differentiate the CFD physics using a discrete adjoint code version. We present a fast communication method between TensorFlow (Python) and OpenFOAM (c++) that accelerates the training process. We applied the model to the flow past a square cylinder problem, reducing the error from 120% to 25% in the velocity for simulations inside the training distribution compared to the traditional solver using an x8 coarser mesh. For simulations outside the training distribution, the error reduction in the velocities was about 50%. The training is affordable in terms of time and data samples since the architecture exploits the local features of the physics.
arxiv情報
著者 | Jesus Gonzalez-Sieiro,David Pardo,Vincenzo Nava,Victor M. Calo,Markus Towara |
発行日 | 2024-09-05 14:17:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google