要約
モノのインターネット(IoT)は、セキュリティ上の多大な課題に直面しています。機械学習モデルは、IoTシステムを標的とするサイバー攻撃のバリエーションの増加に取り組むために使用することができますが、敵対的な攻撃によってもたらされる脅威の増大は、信頼できる防御戦略の必要性を再確認します。本研究では、現実的な敵対的サイバー攻撃例に必要な制約の種類を説明し、現実的な敵対的回避攻撃ベクトルを用いた信頼性の高い敵対的堅牢性分析のための方法論を提案する。提案した方法論は、3つの教師ありアルゴリズム、ランダムフォレスト(RF)、エクストリームグラディエントブースティング(XGB)、ライトグラディエントブースティングマシン(LGBM)、及び1つの教師なしアルゴリズム、アイソレーションフォレスト(IFOR)を評価するために使用した。適応的摂動パターン法(A2PM)を用いて制約のある敵対的な例を生成し、通常の訓練と敵対的な訓練で作成したモデルに対して回避攻撃を行った。二値分類ではRFが最も影響を受けなかったにもかかわらず、多クラス分類ではXGBが常に最高精度を達成しました。得られた結果は、敵対的回避攻撃に対するツリーベースのアルゴリズムとアンサンブルの固有の感受性を証明し、より堅牢なIoTネットワーク侵入検知とサイバー攻撃分類のための敵対的訓練とセキュリティ・バイ・デザイン・アプローチの利点を実証しています。
要約(オリジナル)
The Internet of Things (IoT) faces tremendous security challenges. Machine learning models can be used to tackle the growing number of cyber-attack variations targeting IoT systems, but the increasing threat posed by adversarial attacks restates the need for reliable defense strategies. This work describes the types of constraints required for a realistic adversarial cyber-attack example and proposes a methodology for a trustworthy adversarial robustness analysis with a realistic adversarial evasion attack vector. The proposed methodology was used to evaluate three supervised algorithms, Random Forest (RF), Extreme Gradient Boosting (XGB), and Light Gradient Boosting Machine (LGBM), and one unsupervised algorithm, Isolation Forest (IFOR). Constrained adversarial examples were generated with the Adaptative Perturbation Pattern Method (A2PM), and evasion attacks were performed against models created with regular and adversarial training. Even though RF was the least affected in binary classification, XGB consistently achieved the highest accuracy in multi-class classification. The obtained results evidence the inherent susceptibility of tree-based algorithms and ensembles to adversarial evasion attacks and demonstrates the benefits of adversarial training and a security by design approach for a more robust IoT network intrusion detection and cyber-attack classification.
arxiv情報
著者 | João Vitorino,Isabel Praça,Eva Maia |
発行日 | 2023-03-03 18:18:14+00:00 |
arxivサイト | arxiv_id(pdf) |