Sobolev neural network with residual weighting as a surrogate in linear and non-linear mechanics

要約

不確実性の定量化や最適化などの計算力学の分野では、通常、エンジニアリング システムの動作を表す数値モデルを繰り返し評価する必要があります。
ただし、複雑な非線形システムの場合、これらのモデルの評価は高価になる傾向があるため、代理モデルは非常に価値があります。
人工ニューラル ネットワークは、与えられたトレーニング データの固有情報を利用することで、システムを非常によく近似します。
これに関連して、この論文では、感度情報を含めることによるトレーニング プロセスの改善について調査します。
ソボレフのトレーニングで概説されている入力。
計算力学では、損失項を追加してトレーニング損失関数を拡張することにより、ニューラル ネットワークに感度を適用できます。これにより、トレーニングの収束が向上し、汎化誤差が低くなります。
この改善は、線形および非線形の材料挙動の 2 つの例で示されています。
より具体的には、ソボレフ設計の損失関数は、トレーニング ステップにおける各損失の影響を調整する残留重みを使用して拡張されます。
残留重み付けは、さまざまなトレーニング データ (この場合は応答と感度) に対する所定のスケーリングです。
これらの残留重みは適応スキームによって最適化され、それによってさまざまな目的関数が調査され、一部の関数では一般的なトレーニング収束の精度と精度の向上が見られます。

要約(オリジナル)

Areas of computational mechanics such as uncertainty quantification and optimization usually involve repeated evaluation of numerical models that represent the behavior of engineering systems. In the case of complex nonlinear systems however, these models tend to be expensive to evaluate, making surrogate models quite valuable. Artificial neural networks approximate systems very well by taking advantage of the inherent information of its given training data. In this context, this paper investigates the improvement of the training process by including sensitivity information, which are partial derivatives w.r.t. inputs, as outlined by Sobolev training. In computational mechanics, sensitivities can be applied to neural networks by expanding the training loss function with additional loss terms, thereby improving training convergence resulting in lower generalisation error. This improvement is shown in two examples of linear and non-linear material behavior. More specifically, the Sobolev designed loss function is expanded with residual weights adjusting the effect of each loss on the training step. Residual weighting is the given scaling to the different training data, which in this case are response and sensitivities. These residual weights are optimized by an adaptive scheme, whereby varying objective functions are explored, with some showing improvements in accuracy and precision of the general training convergence.

arxiv情報

著者 A. O. M. Kilicsoy,J. Liedmann,M. A. Valdebenito,F. -J. Barthold,M. G. R. Faes
発行日 2024-07-23 13:28:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク