要約
ディープ ニューラル ネットワーク (DNN) は、動的システムをモデル化する優れた能力を示しています。
それにもかかわらず、それらは通常、保存則などの物理的制約に従いません。
この論文では、不変特性を与えるために DNN ベースのダイナミクス モデリングの信頼性を向上させる、ConCerNet という名前の新しい学習フレームワークを提案します。
ConCerNet は 2 つのステップで構成されます。(i) 軌道観測に沿ってシステムの不変量 (つまり、保存特性) を自動的に捕捉する対照学習方法。
(ii) 学習されたダイナミクス モデルが学習された不変量を保持することを保証するニューラル プロジェクション レイヤー。
学習された潜在表現と未知のシステム不変関数の間の関数関係を理論的に証明します。
実験によれば、私たちの方法は、座標誤差と保存メトリクスの両方においてベースライン ニューラル ネットワークよりも大幅に優れていることが一貫して示されています。
ニューラル ネットワーク ベースのパラメーター化と事前知識に依存しないため、オートエンコーダーを活用することで、この方法を複雑で大規模なダイナミクスに拡張できます。
要約(オリジナル)
Deep neural networks (DNN) have shown great capacity of modeling a dynamical system; nevertheless, they usually do not obey physics constraints such as conservation laws. This paper proposes a new learning framework named ConCerNet to improve the trustworthiness of the DNN based dynamics modeling to endow the invariant properties. ConCerNet consists of two steps: (i) a contrastive learning method to automatically capture the system invariants (i.e. conservation properties) along the trajectory observations; (ii) a neural projection layer to guarantee that the learned dynamics models preserve the learned invariants. We theoretically prove the functional relationship between the learned latent representation and the unknown system invariant function. Experiments show that our method consistently outperforms the baseline neural networks in both coordinate error and conservation metrics by a large margin. With neural network based parameterization and no dependence on prior knowledge, our method can be extended to complex and large-scale dynamics by leveraging an autoencoder.
arxiv情報
著者 | Wang Zhang,Tsui-Wei Weng,Subhro Das,Alexandre Megretski,Luca Daniel,Lam M. Nguyen |
発行日 | 2023-07-19 16:14:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google