Neural Extended Kalman Filters for Learning and Predicting Dynamics of Structural Systems

要約

正確な構造応答予測は、構造ヘルスモニタリングおよび制御アプリケーションの主要な推進力を形成する。そのためには、提案するモデルが複雑な構造システムの基礎となるダイナミクスを適切に捉える必要がある。本論文では、複雑な物理システムの潜在的な進化ダイナミクスを学習するために、学習可能な拡張カルマンフィルタ(EKF)を利用する。ニューラルEKFは、従来のEKFを一般化したもので、プロセスダイナミクスと感覚観測のモデリングをニューラルネットワークでパラメータ化し、エンドツーエンドの学習によって学習する。この手法は変分推論の枠組みの下で実装され、EKFがセンシング測定値から推論を行います。一般的に、従来の変分推論モデルは、潜在力学モデルから独立したニューラルネットワークによってパラメータ化される。この特徴により、推論と再構成の精度はダイナミクスモデルに弱く、関連する学習が不十分となる。本研究では、ニューラルEKFによって課される構造が学習プロセスに有益であることを示す。このフレームワークの有効性を、シミュレーションと実世界の構造モニタリングデータセットの両方で実証し、その結果、提案スキームの有意な予測能力が示された。

要約(オリジナル)

Accurate structural response prediction forms a main driver for structural health monitoring and control applications. This often requires the proposed model to adequately capture the underlying dynamics of complex structural systems. In this work, we utilize a learnable Extended Kalman Filter (EKF), named the Neural Extended Kalman Filter (Neural EKF) throughout this paper, for learning the latent evolution dynamics of complex physical systems. The Neural EKF is a generalized version of the conventional EKF, where the modeling of process dynamics and sensory observations can be parameterized by neural networks, therefore learned by end-to-end training. The method is implemented under the variational inference framework with the EKF conducting inference from sensing measurements. Typically, conventional variational inference models are parameterized by neural networks independent of the latent dynamics models. This characteristic makes the inference and reconstruction accuracy weakly based on the dynamics models and renders the associated training inadequate. In this work, we show that the structure imposed by the Neural EKF is beneficial to the learning process. We demonstrate the efficacy of the framework on both simulated and real-world structural monitoring datasets, with the results indicating significant predictive capabilities of the proposed scheme.

arxiv情報

著者 Wei Liu,Zhilu Lai,Kiran Bacsa,Eleni Chatzi
発行日 2023-07-03 09:49:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CE, cs.LG, nlin.CD, stat.ML パーマリンク