要約
グラフ ニューラル ネットワークは、グラフで構造化されたデータを処理する独自の機能により、機械学習の分野でますます人気が高まっています。
これらは、本質的に摂動が発生する安全性が重要な環境にも適用されています。
ただし、ニューラル ネットワークは敵対的な攻撃を受けやすいため、安全性が重要な環境に導入する前に、これらの摂動を考慮してニューラル ネットワークを正式に検証する必要があります。
ニューラル ネットワークの形式的検証に関する研究は存在しますが、複数のメッセージパッシング ステップにわたってノードの特徴とグラフ構造に不確実性がある汎用グラフ畳み込みネットワーク アーキテクチャの堅牢性を検証する研究はありません。
この研究では、(行列) 多項式ゾノトープを使用した到達可能性解析を通じて、基礎となる計算におけるすべての要素の非凸依存性を明示的に保存することで、この研究ギャップに対処しています。
3 つの一般的なベンチマーク データセットに対するアプローチを示します。
要約(オリジナル)
Graph neural networks are becoming increasingly popular in the field of machine learning due to their unique ability to process data structured in graphs. They have also been applied in safety-critical environments where perturbations inherently occur. However, these perturbations require us to formally verify neural networks before their deployment in safety-critical environments as neural networks are prone to adversarial attacks. While there exists research on the formal verification of neural networks, there is no work verifying the robustness of generic graph convolutional network architectures with uncertainty in the node features and in the graph structure over multiple message-passing steps. This work addresses this research gap by explicitly preserving the non-convex dependencies of all elements in the underlying computations through reachability analysis with (matrix) polynomial zonotopes. We demonstrate our approach on three popular benchmark datasets.
arxiv情報
著者 | Tobias Ladner,Michael Eichelbeck,Matthias Althoff |
発行日 | 2024-04-23 14:12:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google