Geometry-Informed Neural Operator Transformer

要約

マシンラーニングベースのサロゲートモデルは、特に部分的な微分方程式の繰り返し評価を必要とする問題について、従来の数値的方法と比較して、大幅な計算効率とより高速なシミュレーションを提供します。
この作業では、ジオメトリに基づいた神経オペレータートランス(Ginot)を紹介します。これにより、トランスアーキテクチャを神経演算子のフレームワークと統合して、任意の幾何学の前方予測を可能にします。
Ginotは、サンプリングとグループ化メカニズムと注意メカニズムを組み合わせて、ジオメトリの表面点クラウドをエンコードし、点密度の変動に対する堅牢性を維持しながら、順序とパディングの不変性を確保します。
ジオメトリ情報は、注意メカニズムを介してソリューションデコーダーのクエリポイントとシームレスに統合されています。
Ginotのパフォーマンスは、複数の挑戦的なデータセットで検証されており、複雑で任意の2Dおよび3D形状の高精度と強力な一般化機能を紹介します。

要約(オリジナル)

Machine-learning-based surrogate models offer significant computational efficiency and faster simulations compared to traditional numerical methods, especially for problems requiring repeated evaluations of partial differential equations. This work introduces the Geometry-Informed Neural Operator Transformer (GINOT), which integrates the transformer architecture with the neural operator framework to enable forward predictions for arbitrary geometries. GINOT encodes the surface points cloud of a geometry using a sampling and grouping mechanism combined with an attention mechanism, ensuring invariance to point order and padding while maintaining robustness to variations in point density. The geometry information is seamlessly integrated with query points in the solution decoder through the attention mechanism. The performance of GINOT is validated on multiple challenging datasets, showcasing its high accuracy and strong generalization capabilities for complex and arbitrary 2D and 3D geometries.

arxiv情報

著者 Qibang Liu,Vincient Zhong,Hadi Meidani,Diab Abueidda,Seid Koric,Philippe Geubelle
発行日 2025-04-29 15:30:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph パーマリンク