要約
渦を解決する乱流シミュレーションには、乱流の複雑なマルチスケール構造を正確に再現する確率論的な流入条件が必要です。
従来のリサイクルベースの手法は、計算コストのかかる前駆体シミュレーションに依存していますが、既存の合成流入生成装置では現実的な乱流のコヒーレント構造を再現できないことがよくあります。
深層学習 (DL) の最近の進歩により、流入乱流生成の新たな可能性が開かれましたが、DL ベースの手法の多くは、誤差が蓄積しやすい決定論的な自己回帰フレームワークに依存しているため、長期予測の堅牢性が低くなります。
この研究では、条件付きニューラル フィールド (CNF) でエンコードされた潜在空間と拡散モデルを統合して現実的で確率的な流入乱流を生成する、新しい DL ベースの流入乱流ジェネレーターである CoNFiLD インレットを紹介します。
レイノルズ数を使用して流入条件をパラメータ化することにより、CoNFiLD インレットは、再学習やパラメータ調整を必要とせずに、広範囲のレイノルズ数 ($10^3$ と $10^4$ の間の $Re_\tau$) にわたって効果的に一般化します。
直接数値シミュレーション (DNS) および壁モデル大渦シミュレーション (WMLES) での事前および事後テストによる包括的な検証により、その高い忠実度、堅牢性、拡張性が実証され、流入乱流合成の効率的で多用途なソリューションとして位置づけられています。
要約(オリジナル)
Eddy-resolving turbulence simulations require stochastic inflow conditions that accurately replicate the complex, multi-scale structures of turbulence. Traditional recycling-based methods rely on computationally expensive precursor simulations, while existing synthetic inflow generators often fail to reproduce realistic coherent structures of turbulence. Recent advances in deep learning (DL) have opened new possibilities for inflow turbulence generation, yet many DL-based methods rely on deterministic, autoregressive frameworks prone to error accumulation, resulting in poor robustness for long-term predictions. In this work, we present CoNFiLD-inlet, a novel DL-based inflow turbulence generator that integrates diffusion models with a conditional neural field (CNF)-encoded latent space to produce realistic, stochastic inflow turbulence. By parameterizing inflow conditions using Reynolds numbers, CoNFiLD-inlet generalizes effectively across a wide range of Reynolds numbers ($Re_\tau$ between $10^3$ and $10^4$) without requiring retraining or parameter tuning. Comprehensive validation through a priori and a posteriori tests in Direct Numerical Simulation (DNS) and Wall-Modeled Large Eddy Simulation (WMLES) demonstrates its high fidelity, robustness, and scalability, positioning it as an efficient and versatile solution for inflow turbulence synthesis.
arxiv情報
著者 | Xin-Yang Liu,Meet Hemant Parikh,Xiantao Fan,Pan Du,Qing Wang,Yi-Fan Chen,Jian-Xun Wang |
発行日 | 2024-11-21 18:13:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google