要約
この論文では、時変ジオメトリ内の非常にまばらなデータからフローを再構築するためのグラフ アテンション畳み込みネットワーク (GACN) について説明します。
このモデルには、非常にまばらな入力を処理するための前処理ステップとして特徴伝播アルゴリズムが組み込まれており、隣接ノードからの情報を活用して欠落している特徴を初期化します。
さらに、元のデータ ポイントと伝播されたデータ ポイントを区別するための妥当性マスクとしてバイナリ インジケーターが導入され、まばらな入力からのより効果的な学習が可能になります。
技術的に適切な動作条件で電動エンジンの直接数値シミュレーション (DNS) の独自のデータ セットでトレーニングされた GACN は、さまざまな解像度とドメイン サイズにわたって堅牢なパフォーマンスを示し、非構造化データと可変入力サイズを効果的に処理できます。
このモデルは、これまでに見たことのない DNS データと、トレーニング中に考慮されなかった粒子画像流速測定 (PIV) 測定からの実験データ セットでテストされます。
比較分析の結果、GACN は、再構成エラーの低減と微細スケールの乱流構造の捕捉の向上により、DNS および PIV テスト セット上で従来の畳み込みニューラル ネットワーク (CNN) と三次補間法の両方を常に上回っていることが示されています。
特に、GACN はトレーニング中に観察されたドメインよりも最大 14 倍大きいドメインから流れ場を効果的に再構築し、ドメインが大きくなるほどパフォーマンス上の利点が増加します。
要約(オリジナル)
The paper presents a Graph Attention Convolutional Network (GACN) for flow reconstruction from very sparse data in time-varying geometries. The model incorporates a feature propagation algorithm as a preprocessing step to handle extremely sparse inputs, leveraging information from neighboring nodes to initialize missing features. In addition, a binary indicator is introduced as a validity mask to distinguish between the original and propagated data points, enabling more effective learning from sparse inputs. Trained on a unique data set of Direct Numerical Simulations (DNS) of a motored engine at a technically relevant operating condition, the GACN shows robust performance across different resolutions and domain sizes and can effectively handle unstructured data and variable input sizes. The model is tested on previously unseen DNS data as well as on an experimental data set from Particle Image Velocimetry (PIV) measurements that were not considered during training. A comparative analysis shows that the GACN consistently outperforms both a conventional Convolutional Neural Network (CNN) and cubic interpolation methods on the DNS and PIV test sets by achieving lower reconstruction errors and better capturing fine-scale turbulent structures. In particular, the GACN effectively reconstructs flow fields from domains up to 14 times larger than those observed during training, with the performance advantage increasing for larger domains.
arxiv情報
著者 | Bogdan A. Danciu,Vito A. Pagone,Benjamin Böhm,Marius Schmidt,Christos E. Frouzakis |
発行日 | 2024-11-13 16:49:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google