An extended physics informed neural network for preliminary analysis of parametric optimal control problems

要約

この研究では、物理学に基づいた教師あり学習戦略をパラメトリック偏微分方程式に拡張することを提案します。
実際、後者が多くのアプリケーションで有用であることは間違いありませんが、リアルタイムで多数のクエリを実行する設定では、特に計算コストが高くなる可能性があります。
したがって、私たちの主な目標は、パラメータ化された現象を短時間でシミュレートするための物理学に基づいた学習パラダイムを提供することです。
物理情報は、損失関数 (標準的な物理情報に基づくニューラル ネットワーク)、拡張入力 (追加機能の利用)、およびニューラル ネットワークの効果的な構造 (物理情報に基づくアーキテクチャ) を構築するためのガイドラインとして、さまざまな方法で利用されます。
これら 3 つの側面を組み合わせると、トレーニング フェーズが高速化され、より正確なパラメトリック予測が可能になります。
この方法論は、いくつかの方程式と最適な制御フレームワークに対してテストされています。

要約(オリジナル)

In this work we propose an extension of physics informed supervised learning strategies to parametric partial differential equations. Indeed, even if the latter are indisputably useful in many applications, they can be computationally expensive most of all in a real-time and many-query setting. Thus, our main goal is to provide a physics informed learning paradigm to simulate parametrized phenomena in a small amount of time. The physics information will be exploited in many ways, in the loss function (standard physics informed neural networks), as an augmented input (extra feature employment) and as a guideline to build an effective structure for the neural network (physics informed architecture). These three aspects, combined together, will lead to a faster training phase and to a more accurate parametric prediction. The methodology has been tested for several equations and also in an optimal control framework.

arxiv情報

著者 Nicola Demo,Maria Strazzullo,Gianluigi Rozza
発行日 2023-06-13 16:02:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク