Symmetric Basis Convolutions for Learning Lagrangian Fluid Mechanics

要約

物理シミュレーションの学習は、機械学習、特にナビエ・ストークスベースの流体力学における最近の多くの研究活動において、不可欠かつ中心的な側面となっています。
従来、古典的な数値ソルバーは計算コストが高く、逆問題での使用が困難でしたが、ニューラル ソルバーは機械学習を通じて両方の問題に対処することを目指しています。
既存の手法のスーパーセットとして分離可能な基底関数を使用した連続畳み込みの一般的な定式化を提案し、(a) 圧縮可能な 1D SPH シミュレーション、(b) 弱圧縮可能な 2D SPH シミュレーション、および
(c) 非圧縮性の 2D SPH シミュレーション。
基底関数に含まれる偶数対称性と奇数対称性が安定性と精度の重要な側面であることを実証します。
私たちの広範な評価では、フーリエベースの連続畳み込みが精度と一般化の点で他のすべてのアーキテクチャよりも優れていることが示されています。
最後に、これらのフーリエベースのネットワークを使用して、窓関数などの以前の誘導バイアスがもはや必要ないことを示します。
私たちのアプローチの実装、および完全なデータセットとソルバーの実装は、https://github.com/tum-pbs/SFBC で入手できます。

要約(オリジナル)

Learning physical simulations has been an essential and central aspect of many recent research efforts in machine learning, particularly for Navier-Stokes-based fluid mechanics. Classic numerical solvers have traditionally been computationally expensive and challenging to use in inverse problems, whereas Neural solvers aim to address both concerns through machine learning. We propose a general formulation for continuous convolutions using separable basis functions as a superset of existing methods and evaluate a large set of basis functions in the context of (a) a compressible 1D SPH simulation, (b) a weakly compressible 2D SPH simulation, and (c) an incompressible 2D SPH Simulation. We demonstrate that even and odd symmetries included in the basis functions are key aspects of stability and accuracy. Our broad evaluation shows that Fourier-based continuous convolutions outperform all other architectures regarding accuracy and generalization. Finally, using these Fourier-based networks, we show that prior inductive biases, such as window functions, are no longer necessary. An implementation of our approach, as well as complete datasets and solver implementations, is available at https://github.com/tum-pbs/SFBC.

arxiv情報

著者 Rene Winchenbach,Nils Thuerey
発行日 2024-03-25 12:15:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph パーマリンク