Diffusion-based Adversarial Purification for Intrusion Detection

要約

サイバー攻撃の巧妙化により、侵入検知システムへの機械学習技術の統合が促進されていますが、敵対的な例の増加により、大きな課題が生じています。
これらの巧妙に作成された摂動は ML モデルを誤解させ、攻撃者が検出を回避したり、誤ったアラートをトリガーしたりすることを可能にします。
その反動として、特に拡散モデルが有望な結果を示している場合、敵対的浄化が説得力のある解決策として登場しました。
ただし、侵入検知の観点からは、その浄化の可能性はまだ解明されていません。
この論文では、ネットワーク侵入検出における敵対的な例を浄化する際の拡散モデルの有効性を実証します。
拡散パラメータの包括的な分析を通じて、通常のパフォーマンスへの影響を最小限に抑えながら敵対的な堅牢性を最大化する最適な構成を特定します。
重要なことに、この研究は拡散ノイズと拡散ステップの関係についての洞察を明らかにし、この分野への新たな貢献を示しています。
私たちの実験は 2 つのデータセットと 5 つの敵対的攻撃に対して実行されました。
実装コードは公開されています。

要約(オリジナル)

The escalating sophistication of cyberattacks has encouraged the integration of machine learning techniques in intrusion detection systems, but the rise of adversarial examples presents a significant challenge. These crafted perturbations mislead ML models, enabling attackers to evade detection or trigger false alerts. As a reaction, adversarial purification has emerged as a compelling solution, particularly with diffusion models showing promising results. However, their purification potential remains unexplored in the context of intrusion detection. This paper demonstrates the effectiveness of diffusion models in purifying adversarial examples in network intrusion detection. Through a comprehensive analysis of the diffusion parameters, we identify optimal configurations maximizing adversarial robustness with minimal impact on normal performance. Importantly, this study reveals insights into the relationship between diffusion noise and diffusion steps, representing a novel contribution to the field. Our experiments are carried out on two datasets and against 5 adversarial attacks. The implementation code is publicly available.

arxiv情報

著者 Mohamed Amine Merzouk,Erwan Beurier,Reda Yaich,Nora Boulahia-Cuppens,Frédéric Cuppens
発行日 2024-06-25 14:48:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ML パーマリンク