Stability and Performance Analysis of Discrete-Time ReLU Recurrent Neural Networks

要約

この論文は、ReLU 活性化関数を備えたリカレント ニューラル ネットワーク (RNN) の安定性と $\ell_2$ ゲイン パフォーマンスのための十分な条件を示します。
これらの条件は、リアプノフ/散逸性理論と、繰り返し ReLU によって満たされる二次制約 (QC) を組み合わせることによって導出されます。
スカラー ReLU の既知のプロパティを使用して、繰り返される RELU の QC の一般的なクラスを作成します。
私たちの安定性とパフォーマンスの条件では、これらの QC と ReLU RNN の「リフトされた」表現を使用します。
スカラー ReLU によって満たされる正の均一性特性は、反復 ReLU の QC のクラスを拡張しないことを示します。
安定性/パフォーマンス条件を実証し、リフティングホライズンの効果を研究するための例を示します。

要約(オリジナル)

This paper presents sufficient conditions for the stability and $\ell_2$-gain performance of recurrent neural networks (RNNs) with ReLU activation functions. These conditions are derived by combining Lyapunov/dissipativity theory with Quadratic Constraints (QCs) satisfied by repeated ReLUs. We write a general class of QCs for repeated RELUs using known properties for the scalar ReLU. Our stability and performance condition uses these QCs along with a ‘lifted’ representation for the ReLU RNN. We show that the positive homogeneity property satisfied by a scalar ReLU does not expand the class of QCs for the repeated ReLU. We present examples to demonstrate the stability / performance condition and study the effect of the lifting horizon.

arxiv情報

著者 Sahel Vahedi Noori,Bin Hu,Geir Dullerud,Peter Seiler
発行日 2024-05-08 17:30:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC パーマリンク