Formal Verification of Graph Convolutional Networks with Uncertain Node Features and Uncertain Graph Structure

要約

グラフのニューラルネットワークは、グラフで構成されたデータを処理する独自の能力により、機械学習の分野でますます人気が高まっています。
また、摂動が本質的に発生する安全性の高い環境にも適用されています。
ただし、これらの摂動では、ニューラルネットワークが敵対的な攻撃を起こしやすいため、安全性が批判的な環境で展開する前に、ニューラルネットワークを正式に検証する必要があります。
ニューラルネットワークの正式な検証に関する研究が存在しますが、ノード機能と複数のメッセージパスステップにわたってグラフ構造に不確実性を持つ、汎用グラフ畳み込みネットワークアーキテクチャの堅牢性を検証する作業はありません。
この作業は、(マトリックス)多項式ゾノトープを使用した到達可能性分析を通じて、基礎となる計算のすべての要素の非凸依存性を明示的に保存することにより、この研究のギャップに対処します。
3つの人気のあるベンチマークデータセットでアプローチを示します。

要約(オリジナル)

Graph neural networks are becoming increasingly popular in the field of machine learning due to their unique ability to process data structured in graphs. They have also been applied in safety-critical environments where perturbations inherently occur. However, these perturbations require us to formally verify neural networks before their deployment in safety-critical environments as neural networks are prone to adversarial attacks. While there exists research on the formal verification of neural networks, there is no work verifying the robustness of generic graph convolutional network architectures with uncertainty in the node features and in the graph structure over multiple message-passing steps. This work addresses this research gap by explicitly preserving the non-convex dependencies of all elements in the underlying computations through reachability analysis with (matrix) polynomial zonotopes. We demonstrate our approach on three popular benchmark datasets.

arxiv情報

著者 Tobias Ladner,Michael Eichelbeck,Matthias Althoff
発行日 2025-04-16 13:23:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク