Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks

要約

機械学習 (ML) アルゴリズムは、ネットワーク侵入検知システム (NIDS) をサポートするためにますます普及しています。
それにもかかわらず、広範な研究により、パフォーマンスを損なうことを目的としたモデルの入力への微妙な混乱を伴う敵対的攻撃に対する脆弱性が示されています。
最近の提案では、グラフ ニューラル ネットワーク (GNN) を効果的に活用して、侵入によって示される構造パターンにも基づいて予測を生成し、検出の堅牢性を高めています。
ただし、GNN ベースの NIDS の採用により、新たな種類のリスクが生じます。
この論文では、ネットワーク侵入検出における GNN に特化した敵対的攻撃の最初の形式化を提案します。
さらに、現実世界のシナリオで実行可能な構造的攻撃を実行するために攻撃者が考慮する必要がある問題空間の制約の概要を示し、モデル化します。
最後の貢献として、私たちは最先端の GNN ベースの NIDS に対して提案された攻撃を開始する大規模な実験キャンペーンを実施します。
私たちの調査結果は、構造ベースの攻撃に対するモデルの脆弱性を強調しながら、従来の機能ベースの敵対的攻撃に対するモデルの堅牢性が向上していることを示しています。

要約(オリジナル)

Machine Learning (ML) algorithms have become increasingly popular for supporting Network Intrusion Detection Systems (NIDS). Nevertheless, extensive research has shown their vulnerability to adversarial attacks, which involve subtle perturbations to the inputs of the models aimed at compromising their performance. Recent proposals have effectively leveraged Graph Neural Networks (GNN) to produce predictions based also on the structural patterns exhibited by intrusions to enhance the detection robustness. However, the adoption of GNN-based NIDS introduces new types of risks. In this paper, we propose the first formalization of adversarial attacks specifically tailored for GNN in network intrusion detection. Moreover, we outline and model the problem space constraints that attackers need to consider to carry out feasible structural attacks in real-world scenarios. As a final contribution, we conduct an extensive experimental campaign in which we launch the proposed attacks against state-of-the-art GNN-based NIDS. Our findings demonstrate the increased robustness of the models against classical feature-based adversarial attacks, while highlighting their susceptibility to structure-based attacks.

arxiv情報

著者 Andrea Venturi,Dario Stabili,Mirco Marchetti
発行日 2024-04-23 15:21:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク