Physics-informed PointNet: On how many irregular geometries can it solve an inverse problem simultaneously? Application to linear elasticity

要約

通常の物理情報に基づくニューラル ネットワーク (PINN) は、まばらなラベル付きデータを使用して偏微分方程式の解を予測しますが、単一ドメイン上でのみ予測します。
一方、完全教師あり学習モデルは、通常、最初に既知の解 (つまり、ラベル付きデータ) を使用して数千のドメインにわたってトレーニングされ、次に数百の未知のドメインにわたって解を予測します。
Physics-informed PointNet (PIPN) は主に、PINN (弱教師あり学習モデルとして) と完全教師あり学習モデルの間のギャップを埋めるように設計されています。
この記事では、PIPN がスパースなラベル付きデータのみを使用しながら、数百のドメインにわたって同時に目的の偏微分方程式の解を予測することを実証します。
このフレームワークは、まばらなラベル付きデータしか利用できない場合に、業界での高速な幾何学的設計に役立ちます。
特に、PIPN が、異なる形状を持つ 500 以上の領域にわたる平面応力問題の解を同時に予測することを示します。
さらに、私たちは、注目に値するバッチ サイズ (つまり、各サブエポックで PIPN に供給されるジオメトリの数) の概念を PIPN に実装する先駆者です。
具体的には、バッチ サイズ 7、14、19、38、76、および 133 を試します。さらに、PIPN サイズ、PIPN アーキテクチャの対称関数、およびスパース ラベル付きデータのコンポーネントの静的および動的重みの影響も調べます。
損失関数が調査されます。

要約(オリジナル)

Regular physics-informed neural networks (PINNs) predict the solution of partial differential equations using sparse labeled data but only over a single domain. On the other hand, fully supervised learning models are first trained usually over a few thousand domains with known solutions (i.e., labeled data) and then predict the solution over a few hundred unseen domains. Physics-informed PointNet (PIPN) is primarily designed to fill this gap between PINNs (as weakly supervised learning models) and fully supervised learning models. In this article, we demonstrate that PIPN predicts the solution of desired partial differential equations over a few hundred domains simultaneously, while it only uses sparse labeled data. This framework benefits fast geometric designs in the industry when only sparse labeled data are available. Particularly, we show that PIPN predicts the solution of a plane stress problem over more than 500 domains with different geometries, simultaneously. Moreover, we pioneer implementing the concept of remarkable batch size (i.e., the number of geometries fed into PIPN at each sub-epoch) into PIPN. Specifically, we try batch sizes of 7, 14, 19, 38, 76, and 133. Additionally, the effect of the PIPN size, symmetric function in the PIPN architecture, and static and dynamic weights for the component of the sparse labeled data in the loss function are investigated.

arxiv情報

著者 Ali Kashefi,Leonidas J. Guibas,Tapan Mukerji
発行日 2023-09-18 16:22:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG パーマリンク