要約
グラフニューラルネットワーク(GNN)は、創薬や金融分析などの領域において、グラフ構造化されたデータを分析するために不可欠なツールとなっており、モデルの透明性に対する要求が高まっている。最近の説明可能なGNNの進歩は、予測に影響を与える重要な部分グラフを明らかにすることで、このニーズに対応しているが、これらの説明メカニズムは、不注意にモデルをセキュリティリスクにさらす可能性がある。本稿では、このような説明が、モデル盗用に悪用される可能性のある重要な決定ロジックをどのように漏らす可能性があるかを調査する。本論文では{method}を提案する。{method}は、限定されたクエリの下での効率的なトレーニングのためのガイド付きデータ増強と、意思決定ロジックを捕捉するための説明アライメントを統合した新しい盗用フレームワークであり、ターゲットモデルの予測動作と基本的な推論パターンの両方を効果的に複製することを可能にする。分子グラフデータセットを用いた実験により、我々のアプローチがモデル盗用において従来の手法よりも優れていることが実証された。この研究は、機密性の高い領域における説明可能なGNNの展開のための重要なセキュリティ上の考慮事項を強調し、説明に基づく攻撃に対する防御手段の必要性を示唆している。我々のコードはhttps://github.com/beanmah/EGSteal。
要約(オリジナル)
Graph Neural Networks (GNNs) have become essential tools for analyzing graph-structured data in domains such as drug discovery and financial analysis, leading to growing demands for model transparency. Recent advances in explainable GNNs have addressed this need by revealing important subgraphs that influence predictions, but these explanation mechanisms may inadvertently expose models to security risks. This paper investigates how such explanations potentially leak critical decision logic that can be exploited for model stealing. We propose {\method}, a novel stealing framework that integrates explanation alignment for capturing decision logic with guided data augmentation for efficient training under limited queries, enabling effective replication of both the predictive behavior and underlying reasoning patterns of target models. Experiments on molecular graph datasets demonstrate that our approach shows advantages over conventional methods in model stealing. This work highlights important security considerations for the deployment of explainable GNNs in sensitive domains and suggests the need for protective measures against explanation-based attacks. Our code is available at https://github.com/beanmah/EGSteal.
arxiv情報
著者 | Bin Ma,Yuyuan Feng,Minhua Lin,Enyan Dai |
発行日 | 2025-06-03 17:11:05+00:00 |
arxivサイト | arxiv_id(pdf) |