Estimating Koopman operators with sketching to provably learn large scale dynamical systems

要約

コープマン演算子の理論により、ノンパラメトリック機械学習アルゴリズムを導入して、複雑な動的システムを予測および分析できます。
カーネル空間における主成分回帰 (PCR) や縮小ランク回帰 (RRR) などの推定器は、システムの時間発展の有限の経験的観察からクープマン演算子を証明可能に学習することが示されています。
これらのアプローチを非常に長い軌道に拡張することは困難であり、計算を実行可能にするために適切な近似を導入する必要があります。
この論文では、ランダム投影 (スケッチ) を使用して、さまざまなカーネルベースの Koopman 演算子推定器の効率を高めます。
私たちは、合成および大規模な分子動力学データセットに関する広範な実験により、新しい「スケッチされた」推定量を導出し、実装し、テストします。
さらに、非漸近的な誤差限界を確立し、統計的学習率と計算効率の間のトレードオフを明確に特徴付けます。
私たちの経験的および理論的分析は、提案された推定器が大規模な動的システムを学習するための健全で効率的な方法を提供することを示しています。
特に、私たちの実験は、提案された推定量が PCR または RRR と同じ精度を維持しながら、はるかに高速であることを示しています。

要約(オリジナル)

The theory of Koopman operators allows to deploy non-parametric machine learning algorithms to predict and analyze complex dynamical systems. Estimators such as principal component regression (PCR) or reduced rank regression (RRR) in kernel spaces can be shown to provably learn Koopman operators from finite empirical observations of the system’s time evolution. Scaling these approaches to very long trajectories is a challenge and requires introducing suitable approximations to make computations feasible. In this paper, we boost the efficiency of different kernel-based Koopman operator estimators using random projections (sketching). We derive, implement and test the new ‘sketched’ estimators with extensive experiments on synthetic and large-scale molecular dynamics datasets. Further, we establish non asymptotic error bounds giving a sharp characterization of the trade-offs between statistical learning rates and computational efficiency. Our empirical and theoretical analysis shows that the proposed estimators provide a sound and efficient way to learn large scale dynamical systems. In particular our experiments indicate that the proposed estimators retain the same accuracy of PCR or RRR, while being much faster.

arxiv情報

著者 Giacomo Meanti,Antoine Chatalic,Vladimir R. Kostic,Pietro Novelli,Massimiliano Pontil,Lorenzo Rosasco
発行日 2023-06-07 15:30:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク