要約
タイトル:物理学的観点を取り入れたPointNet:どのような不規則な幾何学的形状でも同時に逆問題を解くことができるのか? 線形弾性の応用
要約:
– 物理学的観点を取り入れたニューラルネットワーク(PINN)は、スパースなラベル付きデータを使用して偏微分方程式の解を予測しますが、単一のドメインに限定されます。
– 一方、完全に教師あり学習モデルは、通常、いくつかの千の既知の解(つまり、ラベル付きデータ)を持つドメインで最初にトレーニングされ、その後、いくつかの百の未知のドメインで解を予測します。
– 物理学的観点を取り入れたPointNet(PIPN)は、主にこのPINN(弱規則付き学習モデル)と完全な教師あり学習モデルの間のギャップを埋めるために設計されています。
– この記事では、PIPNが、スパースなラベル付きデータのみを使用して、いくつかの百のドメインで望ましい偏微分方程式の解を同時に予測できることを示します。このフレームワークは、スパースなラベル付きデータしか利用できない場合に、産業界での高速なジオメトリ設計に役立ちます。
– 特に、PIPNが異なる幾何学的形状を持つ約500のドメイン上の平面応力問題の解を同時に予測できることを示します。
– さらに、PIPNに顕著なバッチサイズ(各サブエポックでPIPNに送信されるジオメトリ数)の概念を導入する先駆者となりました。具体的には、バッチサイズ7、14、19、38、76、および133を試しました。
– また、PIPNのサイズ、PIPNアーキテクチャの対称関数、および損失関数のスパースなラベル付きデータのコンポーネントの静的および動的ウェイトの効果についても調査しています。
要約(オリジナル)
Regular physics-informed neural networks (PINNs) predict the solution of partial differential equations using sparse labeled data but only over a single domain. On the other hand, fully supervised learning models are first trained usually over a few thousand domains with known solutions (i.e., labeled data) and then predict the solution over a few hundred unseen domains. Physics-informed PointNet (PIPN) is primarily designed to fill this gap between PINNs (as weakly supervised learning models) and fully supervised learning models. In this article, we demonstrate that PIPN predicts the solution of desired partial differential equations over a few hundred domains simultaneously, while it only uses sparse labeled data. This framework benefits fast geometric designs in the industry when only sparse labeled data are available. Particularly, we show that PIPN predicts the solution of a plane stress problem over more than 500 domains with different geometries, simultaneously. Moreover, we pioneer implementing the concept of remarkable batch size (i.e., the number of geometries fed into PIPN at each sub-epoch) into PIPN. Specifically, we try batch sizes of 7, 14, 19, 38, 76, and 133. Additionally, the effect of the PIPN size, symmetric function in the PIPN architecture, and static and dynamic weights for the component of the sparse labeled data in the loss function are investigated.
arxiv情報
| 著者 | Ali Kashefi,Leonidas J. Guibas,Tapan Mukerji |
| 発行日 | 2023-04-03 14:50:13+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI