要約
物理的な一貫性を誘導バイアスとして組み込むことにより、ディープニューラルネットワークは、非線形動力モデルの学習における一般化能力とデータ効率の向上を示します。
ただし、これらのモデルの複雑さは一般に、システムの次元とともに増加し、より大きなデータセット、より複雑なディープネットワーク、および大幅な計算努力が必要です。
元の高次元システム動作を正確に記述する物理的に一貫した低秩序の動的パラメーターを学習するために、新しい幾何学的ネットワークアーキテクチャを提案します。
これは、最近のモデル順序削減の進歩を築き、リマニアの視点を採用して、非線形構造を含む潜在的な空間と関連する低次元のダイナミクスを共同で学習することによって達成されます。
私たちのアプローチにより、解釈可能で物理的に透過性の低いラグランジアンモデルを推測することにより、データ効率が向上した、剛性および変形可能なシステムの高次元ダイナミクスの正確な長期予測が可能になります。
要約(オリジナル)
By incorporating physical consistency as inductive bias, deep neural networks display increased generalization capabilities and data efficiency in learning nonlinear dynamic models. However, the complexity of these models generally increases with the system dimensionality, requiring larger datasets, more complex deep networks, and significant computational effort. We propose a novel geometric network architecture to learn physically-consistent reduced-order dynamic parameters that accurately describe the original high-dimensional system behavior. This is achieved by building on recent advances in model-order reduction and by adopting a Riemannian perspective to jointly learn a non-linear structure-preserving latent space and the associated low-dimensional dynamics. Our approach enables accurate long-term predictions of the high-dimensional dynamics of rigid and deformable systems with increased data efficiency by inferring interpretable and physically-plausible reduced Lagrangian models.
arxiv情報
| 著者 | Katharina Friedl,Noémie Jaquier,Jens Lundell,Tamim Asfour,Danica Kragic |
| 発行日 | 2025-02-28 16:12:10+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google