要約
物理情報に基づいたニューラル ネットワーク (PINN) は、機械学習に物理原理を効果的に埋め込みますが、複雑なジオメトリや交互のジオメトリに苦戦することがよくあります。
幾何学的変化に確実に対応するために、PINN 内で幾何学的変換を統合する新しい方法を提案します。
私たちの方法は、参照領域のマッピングとして微分同相写像を組み込み、物理学に基づいた損失関数の微分計算を適応させます。
これにより、PINN の適用可能性が滑らかに変形されたドメインだけでなく、低次元多様体にも一般化され、ネットワークのトレーニング中に形状を直接最適化することが可能になります。
我々は、(i) アルキメデス螺旋に関するエイコナール方程式、(ii) 表面多様体に関するポアソン問題、(iii) 変形した管内の非圧縮性ストークス流、および (iv) ラプラス演算子による形状最適化といったいくつかの問題に対するアプローチの有効性を実証します。
これらの例を通じて、特に幾何学的な変化の下で、従来の PINN よりも柔軟性が強化されていることを示します。
提案されたフレームワークは、パラメータ化されたジオメトリに対するディープ ニューラル オペレーターのトレーニングの見通しを提示し、科学および工学における複雑なジオメトリに対する PDE を使用した高度なモデリングへの道を開きます。
要約(オリジナル)
Physics-informed neural networks (PINNs) effectively embed physical principles into machine learning, but often struggle with complex or alternating geometries. We propose a novel method for integrating geometric transformations within PINNs to robustly accommodate geometric variations. Our method incorporates a diffeomorphism as a mapping of a reference domain and adapts the derivative computation of the physics-informed loss function. This generalizes the applicability of PINNs not only to smoothly deformed domains, but also to lower-dimensional manifolds and allows for direct shape optimization while training the network. We demonstrate the effectivity of our approach on several problems: (i) Eikonal equation on Archimedean spiral, (ii) Poisson problem on surface manifold, (iii) Incompressible Stokes flow in deformed tube, and (iv) Shape optimization with Laplace operator. Through these examples, we demonstrate the enhanced flexibility over traditional PINNs, especially under geometric variations. The proposed framework presents an outlook for training deep neural operators over parametrized geometries, paving the way for advanced modeling with PDEs on complex geometries in science and engineering.
arxiv情報
著者 | Samuel Burbulla |
発行日 | 2023-11-29 15:46:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google