要約
機械学習(ML)分類器は、ネットワークトラフィックの自動監視をますます統括するようになり、敵対的な攻撃に対する耐性を研究することが重要になる。本論文では、ネットワークトラフィックフロー分類器に対するポイズニング攻撃(特にバックドア攻撃)に焦点を当てる。敵の能力は訓練データの改ざんに限定され、訓練ラベルや訓練プロセスの他のコンポーネントを任意に変更することはできない。我々は、モデルの解釈可能性技術を活用し、非常に低いポイズニング率でも有効なトリガーパターンを生成するトリガークラフト戦略について説明する。最後に、生成ベイジアンネットワークモデルに基づくアプローチを含む、ステルス性の高いトリガーを生成する新しい戦略を設計し、トリガーの目立ち度を最小化することで、進行中の毒物混入キャンペーンの検出をより困難にすることを目的とします。この発見は、悪意のある通信の検出やアプリケーションの分類など、複数のシナリオで使用されるネットワークトラフィック分類器に対するポイズニング攻撃の実現可能性について、重要な洞察を与えるものです。
要約(オリジナル)
As machine learning (ML) classifiers increasingly oversee the automated monitoring of network traffic, studying their resilience against adversarial attacks becomes critical. This paper focuses on poisoning attacks, specifically backdoor attacks, against network traffic flow classifiers. We investigate the challenging scenario of clean-label poisoning where the adversary’s capabilities are constrained to tampering only with the training data – without the ability to arbitrarily modify the training labels or any other component of the training process. We describe a trigger crafting strategy that leverages model interpretability techniques to generate trigger patterns that are effective even at very low poisoning rates. Finally, we design novel strategies to generate stealthy triggers, including an approach based on generative Bayesian network models, with the goal of minimizing the conspicuousness of the trigger, and thus making detection of an ongoing poisoning campaign more challenging. Our findings provide significant insights into the feasibility of poisoning attacks on network traffic classifiers used in multiple scenarios, including detecting malicious communication and application classification.
arxiv情報
著者 | Giorgio Severi,Simona Boboila,Alina Oprea,John Holodnak,Kendra Kratkiewicz,Jason Matterer |
発行日 | 2023-06-02 16:24:15+00:00 |
arxivサイト | arxiv_id(pdf) |