Attractor reconstruction with reservoir computers: The effect of the reservoir’s conditional Lyapunov exponents on faithful attractor reconstruction

要約

リザーバー コンピューティングは、フラクタル次元やリアプノフ スペクトル全体を含む、トレーニング対象となる動的システムのカオス アトラクターを複製できることが示されている機械学習フレームワークです。
我々は、訓練段階中の駆動リザーバの一般化された同期ダイナミクスを、アトラクター再構成タスクにおける訓練されたリザーバコンピュータのパフォーマンスに定量的に関連付けます。
アトラクターの再構成とリアプノフ スペクトル推定を成功させるには、駆動リザーバの最大の条件付きリアプノフ指数が、ターゲット システムの最大の負のリアプノフ指数よりも大幅に負でなければならないことを示します。
また、貯留層の最大条件付きリアプノフ指数は貯留層隣接行列のスペクトル半径に強く依存するため、アトラクターの再構築とリアプノフ スペクトル推定では、一般にスペクトル半径が小さい貯留層コンピューターの方がパフォーマンスが優れていることもわかりました。
私たちの議論は、よく知られたカオス系の数値例によって裏付けられています。

要約(オリジナル)

Reservoir computing is a machine learning framework that has been shown to be able to replicate the chaotic attractor, including the fractal dimension and the entire Lyapunov spectrum, of the dynamical system on which it is trained. We quantitatively relate the generalized synchronization dynamics of a driven reservoir during the training stage to the performance of the trained reservoir computer at the attractor reconstruction task. We show that, in order to obtain successful attractor reconstruction and Lyapunov spectrum estimation, the largest conditional Lyapunov exponent of the driven reservoir must be significantly more negative than the most negative Lyapunov exponent of the target system. We also find that the maximal conditional Lyapunov exponent of the reservoir depends strongly on the spectral radius of the reservoir adjacency matrix, and therefore, for attractor reconstruction and Lyapunov spectrum estimation, small spectral radius reservoir computers perform better in general. Our arguments are supported by numerical examples on well-known chaotic systems.

arxiv情報

著者 Joseph D. Hart
発行日 2024-03-22 16:57:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, nlin.CD パーマリンク