要約
悪意のある URL は、運輸、医療、エネルギー、銀行などのさまざまな業界に敵対的な機会をもたらし、事業運営に悪影響を与える可能性があります。
したがって、これらの URL の検出は非常に重要です。
ただし、現在の機械学習 (ML) モデルはバックドア攻撃の影響を受けやすくなっています。
これらの攻撃には、良性のラベルを悪意のあるラベルに、またはその逆に変更するラベル フリッピング (LF) など、トレーニング データ ラベルのごく一部の操作が含まれます。
この操作により誤分類が発生し、モデルの誤った動作が発生します。
したがって、潜在的な攻撃に対する防御を強化するには、防御メカニズムを ML モデルのアーキテクチャに統合することが必須の考慮事項になります。
この研究の焦点は、アンサンブル ツリーを使用した URL 検出のコンテキストにおけるバックドア攻撃にあります。
このような攻撃の背後にある動機を明らかにし、攻撃者の役割を明らかにし、効果的な防御戦略の重要性を強調することにより、このホワイトペーパーは、ネットワーク セキュリティにおける ML ドメイン内の敵対的な脅威に対して ML モデルを強化する継続的な取り組みに貢献します。
私たちは、アンサンブル ツリー分類子に対するバックドア攻撃を軽減することを目的として、汚染されたラベルの存在を検出する革新的な警報システムと、元のクラス ラベルを明らかにするように設計された防御メカニズムを提案します。
私たちは、Alexa とフィッシング サイト URL データセットを使用してケーススタディを実施し、提案した防御メカニズムを使用して LF 攻撃に対処できることを示しました。
私たちの実験結果は、LF 攻撃が 2 ~ 5% 以内で 50 ~ 65% の攻撃成功率 (ASR) を達成し、革新的な防御方法が最大 100% の精度で毒されたラベルを検出することに成功したことを証明しています。
要約(オリジナル)
Malicious URLs provide adversarial opportunities across various industries, including transportation, healthcare, energy, and banking which could be detrimental to business operations. Consequently, the detection of these URLs is of crucial importance; however, current Machine Learning (ML) models are susceptible to backdoor attacks. These attacks involve manipulating a small percentage of training data labels, such as Label Flipping (LF), which changes benign labels to malicious ones and vice versa. This manipulation results in misclassification and leads to incorrect model behavior. Therefore, integrating defense mechanisms into the architecture of ML models becomes an imperative consideration to fortify against potential attacks. The focus of this study is on backdoor attacks in the context of URL detection using ensemble trees. By illuminating the motivations behind such attacks, highlighting the roles of attackers, and emphasizing the critical importance of effective defense strategies, this paper contributes to the ongoing efforts to fortify ML models against adversarial threats within the ML domain in network security. We propose an innovative alarm system that detects the presence of poisoned labels and a defense mechanism designed to uncover the original class labels with the aim of mitigating backdoor attacks on ensemble tree classifiers. We conducted a case study using the Alexa and Phishing Site URL datasets and showed that LF attacks can be addressed using our proposed defense mechanism. Our experimental results prove that the LF attack achieved an Attack Success Rate (ASR) between 50-65% within 2-5%, and the innovative defense method successfully detected poisoned labels with an accuracy of up to 100%.
arxiv情報
著者 | Ehsan Nowroozi,Nada Jadalla,Samaneh Ghelichkhani,Alireza Jolfaei |
発行日 | 2024-03-05 14:21:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google