要約
この論文では、ゲート グラフ ニューラル ネットワーク (GGNN) の入力状態安定性 (ISS) と増分入力状態安定性 ($\delta$ISS) の条件を見つけることを目的としています。
この再帰バージョンのグラフ ニューラル ネットワーク (GNN) は動的分散システムとして表現でき、その結果、モデルベースの手法を使用して分析してその安定性と堅牢性の特性を評価できることを示します。
次に、見つかった安定性基準をトレーニング プロセス中の制約として利用して、ニューラル ネットワークの内部安定性を強化できます。
2 つの分散制御例、フロック制御とマルチロボット モーション制御は、これらの条件を使用するとゲート GNN のパフォーマンスとロバスト性が向上することを示しています。
要約(オリジナル)
In this paper, we aim to find the conditions for input-state stability (ISS) and incremental input-state stability ($\delta$ISS) of Gated Graph Neural Networks (GGNNs). We show that this recurrent version of Graph Neural Networks (GNNs) can be expressed as a dynamical distributed system and, as a consequence, can be analysed using model-based techniques to assess its stability and robustness properties. Then, the stability criteria found can be exploited as constraints during the training process to enforce the internal stability of the neural network. Two distributed control examples, flocking and multi-robot motion control, show that using these conditions increases the performance and robustness of the gated GNNs.
arxiv情報
著者 | Antonio Marino,Claudio Pacchierotti,Paolo Robuffo Giordano |
発行日 | 2023-05-30 17:26:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google