要約
再帰型ニューラル ネットワーク (RNN) ベースのアーキテクチャについて説明し、軌跡データから因果的、時不変、および連続時間制御システムの流れ関数を学習します。
制御入力のクラスを区分定数関数に制限することにより、フロー関数を学習することは、離散時間動的システムの入力から状態へのマップを学習することと同等であることを示します。
これは、システムの状態を RNN の隠れた状態にマッピングして元に戻すエンコーダーおよびデコーダー ネットワークと共に RNN を使用する動機となります。
システムの因果関係と時不変性を利用して、提案されたアーキテクチャがフロー関数を近似できることを示します。
学習したフロー関数モデルの出力は、いつでも照会できます。
Van der Pol振動子とFitzHugh Nagumo振動子のモデルを使用して、提案された方法を実験的に検証します。
どちらの場合も、結果は、アーキテクチャがこれら 2 つのシステムの軌跡を厳密に再現できることを示しています。
ファン デル ポール オシレーターについては、トレーニングされたモデルが、トレーニング分布外の入力を制御するだけでなく、予測期間が延長されたシステムの応答に一般化されることをさらに示します。
FitzHugh-Nagumo オシレータについては、モデルが興奮性の入力依存現象を正確に捉えていることを示します。
要約(オリジナル)
We describe a recurrent neural network (RNN) based architecture to learn the flow function of a causal, time-invariant and continuous-time control system from trajectory data. By restricting the class of control inputs to piecewise constant functions, we show that learning the flow function is equivalent to learning the input-to-state map of a discrete-time dynamical system. This motivates the use of an RNN together with encoder and decoder networks which map the state of the system to the hidden state of the RNN and back. We show that the proposed architecture is able to approximate the flow function by exploiting the system’s causality and time-invariance. The output of the learned flow function model can be queried at any time instant. We experimentally validate the proposed method using models of the Van der Pol and FitzHugh Nagumo oscillators. In both cases, the results demonstrate that the architecture is able to closely reproduce the trajectories of these two systems. For the Van der Pol oscillator, we further show that the trained model generalises to the system’s response with a prolonged prediction time horizon as well as control inputs outside the training distribution. For the FitzHugh-Nagumo oscillator, we show that the model accurately captures the input-dependent phenomena of excitability.
arxiv情報
著者 | Miguel Aguiar,Amritam Das,Karl H. Johansson |
発行日 | 2023-03-29 13:04:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google