要約
常微分方程式 (ODE) の解法にニューラル ネットワークを組み込むことは、計算数学における極めて重要な研究の方向性を表しています。
ニューラル ネットワーク アーキテクチャ内で ODE の固有構造を統合すると、予測機能の強化やデータ使用量の削減などの利点が得られます。
これらの構造 ODE 形式の中で、ラグランジュ表現はその重要な物理的基盤により際立っています。
このフレームワークに基づいて、Bhattoo はラグランジアン ニューラル ネットワーク (LNN) の概念を導入しました。
次に、この記事では、ラグランジュ ニューラル ネットワーク (LNN) を非保守的なシステム向けに革新的に調整する画期的な拡張機能 (一般化ラグランジュ ニューラル ネットワーク) を紹介します。
ラグランジュ方程式におけるラグランジュの基本的な重要性を活用することで、一般化されたラグランジュ方程式に基づいてモデルを定式化します。
この変更により、予測精度が向上するだけでなく、非保守的なシステムでのラグランジュ表現も保証されます。
さらに、1次元および2次元の例を含むさまざまな実験を実行し、ネットワークパラメータの影響を検討し、一般化ラグランジアンニューラルネットワーク(GLNN)の優位性を証明しました。
要約(オリジナル)
Incorporating neural networks for the solution of Ordinary Differential Equations (ODEs) represents a pivotal research direction within computational mathematics. Within neural network architectures, the integration of the intrinsic structure of ODEs offers advantages such as enhanced predictive capabilities and reduced data utilization. Among these structural ODE forms, the Lagrangian representation stands out due to its significant physical underpinnings. Building upon this framework, Bhattoo introduced the concept of Lagrangian Neural Networks (LNNs). Then in this article, we introduce a groundbreaking extension (Genralized Lagrangian Neural Networks) to Lagrangian Neural Networks (LNNs), innovatively tailoring them for non-conservative systems. By leveraging the foundational importance of the Lagrangian within Lagrange’s equations, we formulate the model based on the generalized Lagrange’s equation. This modification not only enhances prediction accuracy but also guarantees Lagrangian representation in non-conservative systems. Furthermore, we perform various experiments, encompassing 1-dimensional and 2-dimensional examples, along with an examination of the impact of network parameters, which proved the superiority of Generalized Lagrangian Neural Networks(GLNNs).
arxiv情報
著者 | Shanshan Xiao,Jiawei Zhang,Yifa Tang |
発行日 | 2024-01-09 11:24:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google