Balanced Neural ODEs: nonlinear model order reduction and Koopman operator approximations

要約

バリエーションオートエンコーダー(VAE)は、次元の減少の潜在的な表現を学習するための強力なフレームワークであり、ニューラルオードは一時的なシステムダイナミクスを学習するのに優れています。
この作業は、両方の強度を組み合わせて、時間変化の入力信号で調整可能な複雑さが反応する高速サロゲートモデルを生成します。
非階層的な事前を使用してVAEの次元削減を活用することにより、私たちの方法は、確率的ノイズを適応的に割り当て、自然に既知のNeuralodeトレーニングの強化を補完し、確率論的時系列モデリングを可能にします。
標準的な潜在性は、時変入力を持つシステムの次元削減と闘っていることを示します。
私たちのアプローチは、時間を通じて変分パラメーターを継続的に伝播し、潜在空間で固定情報チャネルを確立することにより、これを軽減します。
これにより、さまざまなシステムの複雑さを学習できる柔軟で堅牢な方法が得られます。
深いニューラルネットワークまたは線形マトリックス。
これにより、次元を事前に定義する必要なく、Koopmanオペレーターの効率的な近似を可能にします。
私たちの方法は、次元の削減と再構成の精度のバランスをとるので、バランスの取れた神経オード(Bノード)と呼びます。
この方法の有効性は、いくつかの学術的および実世界のテストケースで実証されています。
発電所またはムホコのデータ。

要約(オリジナル)

Variational Autoencoders (VAEs) are a powerful framework for learning latent representations of reduced dimensionality, while Neural ODEs excel in learning transient system dynamics. This work combines the strengths of both to generate fast surrogate models with adjustable complexity reacting on time-varying inputs signals. By leveraging the VAE’s dimensionality reduction using a nonhierarchical prior, our method adaptively assigns stochastic noise, naturally complementing known NeuralODE training enhancements and enabling probabilistic time series modeling. We show that standard Latent ODEs struggle with dimensionality reduction in systems with time-varying inputs. Our approach mitigates this by continuously propagating variational parameters through time, establishing fixed information channels in latent space. This results in a flexible and robust method that can learn different system complexities, e.g. deep neural networks or linear matrices. Hereby, it enables efficient approximation of the Koopman operator without the need for predefining its dimensionality. As our method balances dimensionality reduction and reconstruction accuracy, we call it Balanced Neural ODE (B-NODE). We demonstrate the effectiveness of this methods on several academic and real-world test cases, e.g. a power plant or MuJoCo data.

arxiv情報

著者 Julius Aka,Johannes Brunnemann,Jörg Eiden,Arne Speerforck,Lars Mikelsons
発行日 2025-02-26 16:45:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク