Symplectic Autoencoders for Model Reduction of Hamiltonian Systems

要約

最適化、不確実性の定量化、逆問題などの多くのアプリケーションでは、さまざまなパラメーターを選択して大次元の物理システムのシミュレーションを繰り返し実行する必要があります。
これは法外に高価になる可能性があります。
計算コストを節約するために、トレーニング データから取得した低次元基底でシステムを表現することによって代理モデルを構築できます。
これはモデル削減と呼ばれます。
過去の調査では、ハミルトニアン システムのモデル削減を実行する場合、長期的な数値安定性を確保するには、システムに関連付けられたシンプレクティック構造を保存することが重要であることが示されています。
これまで、構造を保持した縮小は主に線形変換に限定されていました。
私たちは、より一般的なマッピングを取得するために、データ サイエンスにおける次元削減と特徴抽出のための確立されたツールであるオートエンコーダーの精神に基づいた新しいニューラル ネットワーク アーキテクチャを提案します。
ネットワークをトレーニングするために、ネットワーク設計から生じる微分幾何構造を活用する非標準の勾配降下法が適用されます。
新しいアーキテクチャは、精度において既存の設計を大幅に上回ることが示されています。

要約(オリジナル)

Many applications, such as optimization, uncertainty quantification and inverse problems, require repeatedly performing simulations of large-dimensional physical systems for different choices of parameters. This can be prohibitively expensive. In order to save computational cost, one can construct surrogate models by expressing the system in a low-dimensional basis, obtained from training data. This is referred to as model reduction. Past investigations have shown that, when performing model reduction of Hamiltonian systems, it is crucial to preserve the symplectic structure associated with the system in order to ensure long-term numerical stability. Up to this point structure-preserving reductions have largely been limited to linear transformations. We propose a new neural network architecture in the spirit of autoencoders, which are established tools for dimension reduction and feature extraction in data science, to obtain more general mappings. In order to train the network, a non-standard gradient descent approach is applied that leverages the differential-geometric structure emerging from the network design. The new architecture is shown to significantly outperform existing designs in accuracy.

arxiv情報

著者 Benedikt Brantner,Michael Kraus
発行日 2023-12-15 18:20:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク