Mixed formulation of physics-informed neural networks for thermo-mechanically coupled systems and heterogeneous domains

要約

物理情報に基づいたニューラル ネットワーク (PINN) は、支配方程式、境界条件、および初期条件に基づいてニューラル ネットワークの損失関数を定義することにより、境界値問題を解決するための新しいツールです。
最近の調査では、多くの工学問題の損失関数を設計する場合、一次導関数を使用し、強い形式と弱い形式の両方からの方程式を組み合わせると、特にドメイン内に異質性や可変ジャンプがある場合に精度が大幅に向上することが示されています。
この新しいアプローチは、PINN の混合定式化と呼ばれるもので、混合有限要素法のアイデアを取り入れています。
この方法では、偏微分方程式は、一次未知数が解の流束または勾配であり、二次未知数が解そのものである連立方程式として再定式化されます。
この研究では、多物理問題、特に定常の熱機械結合方程式系を解くために混合定式化を適用することを提案します。
さらに、逐次的および完全に結合された教師なしトレーニングについて説明し、その精度と計算コストを比較します。
ネットワークの精度を向上させるために、有効な予測を保証するためのハード境界制約を組み込みます。
次に、さまざまなオプティマイザーとアーキテクチャが精度と効率にどのような影響を与えるかを調査します。
最後に、転移学習に似たパラメトリック学習の簡単なアプローチを紹介します。
このアプローチは、データと物理学を組み合わせて、計算コストに関する PINN の制限に対処し、目に見えないケースに対するシステムの応答を予測するネットワークの能力を向上させます。
この研究の成果は、高速で信頼性の高い計算のために複数の結合方程式系で深層学習が使用される他の多くの工学アプリケーションに役立つでしょう。

要約(オリジナル)

Physics-informed neural networks (PINNs) are a new tool for solving boundary value problems by defining loss functions of neural networks based on governing equations, boundary conditions, and initial conditions. Recent investigations have shown that when designing loss functions for many engineering problems, using first-order derivatives and combining equations from both strong and weak forms can lead to much better accuracy, especially when there are heterogeneity and variable jumps in the domain. This new approach is called the mixed formulation for PINNs, which takes ideas from the mixed finite element method. In this method, the PDE is reformulated as a system of equations where the primary unknowns are the fluxes or gradients of the solution, and the secondary unknowns are the solution itself. In this work, we propose applying the mixed formulation to solve multi-physical problems, specifically a stationary thermo-mechanically coupled system of equations. Additionally, we discuss both sequential and fully coupled unsupervised training and compare their accuracy and computational cost. To improve the accuracy of the network, we incorporate hard boundary constraints to ensure valid predictions. We then investigate how different optimizers and architectures affect accuracy and efficiency. Finally, we introduce a simple approach for parametric learning that is similar to transfer learning. This approach combines data and physics to address the limitations of PINNs regarding computational cost and improves the network’s ability to predict the response of the system for unseen cases. The outcomes of this work will be useful for many other engineering applications where deep learning is employed on multiple coupled systems of equations for fast and reliable computations.

arxiv情報

著者 Ali Harandi,Ahmad Moeineddin,Michael Kaliske,Stefanie Reese,Shahed Rezaei
発行日 2023-09-06 12:20:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE パーマリンク