Verifying message-passing neural networks via topology-based bounds tightening

要約

グラフ ニューラル ネットワーク (GNN) は攻撃に対して脆弱であることが多いため、いつ信頼できるかを知る必要があります。
私たちは、Rectified Linear Unit (ReLU) アクティベーション関数を使用して、メッセージ パッシング ニューラル ネットワーク (MPNN) に堅牢な証明書を提供するための計算効率の高いアプローチを開発します。
私たちの研究は混合整数最適化に基づいて構築されているため、さまざまな部分問題をエンコードします。たとえば、(i) エッジの追加と削除の両方、(ii) グローバルとローカルのバジェットの両方、(iii) トポロジーの摂動と特徴の変更の両方が認められます。

当社の主要なテクノロジーであるトポロジーベースの境界強化は、グラフ構造を使用して境界を強化します。
また、変数の境界を厳しくすることで最適化制約を動的に変更するために、積極的な境界の厳格化も実験します。
これらの戦略の有効性を実証するために、オープンソースのブランチアンドカット ソルバー SCIP への拡張機能を実装します。
ノードとグラフの両方の分類問題をテストし、エッジの追加と削除の両方を行うトポロジ攻撃を検討します。

要約(オリジナル)

Since graph neural networks (GNNs) are often vulnerable to attack, we need to know when we can trust them. We develop a computationally effective approach towards providing robust certificates for message-passing neural networks (MPNNs) using a Rectified Linear Unit (ReLU) activation function. Because our work builds on mixed-integer optimization, it encodes a wide variety of subproblems, for example it admits (i) both adding and removing edges, (ii) both global and local budgets, and (iii) both topological perturbations and feature modifications. Our key technology, topology-based bounds tightening, uses graph structure to tighten bounds. We also experiment with aggressive bounds tightening to dynamically change the optimization constraints by tightening variable bounds. To demonstrate the effectiveness of these strategies, we implement an extension to the open-source branch-and-cut solver SCIP. We test on both node and graph classification problems and consider topological attacks that both add and remove edges.

arxiv情報

著者 Christopher Hojny,Shiqiang Zhang,Juan S. Campos,Ruth Misener
発行日 2024-02-21 17:05:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC パーマリンク