要約
物理的一貫性を誘導バイアスとして組み込むことにより、ディープ ニューラル ネットワークは、非線形動的モデルの学習における汎化能力とデータ効率の向上を示します。
ただし、これらのモデルの複雑さは一般にシステムの次元に応じて増大し、より大きなデータセット、より複雑なディープ ネットワーク、および多大な計算量が必要になります。
我々は、元の高次元システムの動作を正確に記述する、物理的に一貫した低次動的パラメータを学習するための新しい幾何学的ネットワーク アーキテクチャを提案します。
これは、モデル次数削減の最近の進歩に基づいて構築し、構造を保存する潜在空間と関連する低次元ダイナミクスを共同で学習するためにリーマンの視点を採用することによって達成されます。
私たちのアプローチは、解釈可能で物理的に妥当な縮小ラグランジュ モデルを推論することにより、データ効率を向上させながら、剛体および変形可能なシステムの高次元ダイナミクスの正確な長期予測を可能にします。
要約(オリジナル)
By incorporating physical consistency as inductive bias, deep neural networks display increased generalization capabilities and data efficiency in learning nonlinear dynamic models. However, the complexity of these models generally increases with the system dimensionality, requiring larger datasets, more complex deep networks, and significant computational effort. We propose a novel geometric network architecture to learn physically-consistent reduced-order dynamic parameters that accurately describe the original high-dimensional system behavior. This is achieved by building on recent advances in model-order reduction and by adopting a Riemannian perspective to jointly learn a structure-preserving latent space and the associated low-dimensional dynamics. Our approach enables accurate long-term predictions of the high-dimensional dynamics of rigid and deformable systems with increased data efficiency by inferring interpretable and physically plausible reduced Lagrangian models.
arxiv情報
著者 | Katharina Friedl,Noémie Jaquier,Jens Lundell,Tamim Asfour,Danica Kragic |
発行日 | 2024-10-24 15:53:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google