Review on the Feasibility of Adversarial Evasion Attacks and Defenses for Network Intrusion Detection Systems

要約

今日では、多くのアプリケーションが機械学習 (ML) アルゴリズムを組み込んでいます。
ただし、コンピューター ビジョンの分野での多くの研究では、敵対的な例と呼ばれる意図的に作成されたインスタンスによって ML がだまされる可能性があることが示されています。
これらの敵対的な例は、ML モデルの本質的な脆弱性を利用しています。
最近の調査では、サイバーセキュリティ分野で多くの懸念が提起されています。
侵入検知システム (IDS) などの ML アルゴリズムに基づくセキュリティ システムに対するこのような攻撃の実現可能性を研究する研究者が増えています。
このような敵対的攻撃の実現可能性は、さまざまなドメイン固有の制約の影響を受けます。
これにより、敵対的な例を作成することが難しくなる可能性があります。
この分野で行われたかなりの量の研究にもかかわらず、その多くは、生データから抽出された特徴を使用してモデルをだますことが可能であることを示すことに焦点を当てていますが、実際的な側面、つまり理論からの逆変換には対処していません。
練習する。
このため、包括的な分析を提供するために、さまざまな重要な論文を閲覧するレビューを提案します。
私たちの分析では、レビューされた論文では対処されていないいくつかの課題が浮き彫りになっています。

要約(オリジナル)

Nowadays, numerous applications incorporate machine learning (ML) algorithms due to their prominent achievements. However, many studies in the field of computer vision have shown that ML can be fooled by intentionally crafted instances, called adversarial examples. These adversarial examples take advantage of the intrinsic vulnerability of ML models. Recent research raises many concerns in the cybersecurity field. An increasing number of researchers are studying the feasibility of such attacks on security systems based on ML algorithms, such as Intrusion Detection Systems (IDS). The feasibility of such adversarial attacks would be influenced by various domain-specific constraints. This can potentially increase the difficulty of crafting adversarial examples. Despite the considerable amount of research that has been done in this area, much of it focuses on showing that it is possible to fool a model using features extracted from the raw data but does not address the practical side, i.e., the reverse transformation from theory to practice. For this reason, we propose a review browsing through various important papers to provide a comprehensive analysis. Our analysis highlights some challenges that have not been addressed in the reviewed papers.

arxiv情報

著者 Islam Debicha,Benjamin Cochez,Tayeb Kenaza,Thibault Debatty,Jean-Michel Dricot,Wim Mees
発行日 2023-03-13 11:00:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク