Toward More Generalized Malicious URL Detection Models

要約

このペーパーでは、悪意のある URL を検出するための機械学習モデルを実行する際に、パフォーマンスに重大な影響を与える可能性があるデータ バイアスの問題を明らかにします。
私たちは、解釈可能な機械学習技術を使用してそのようなバイアスをどのように特定できるかを説明し、さらに、分類モデルをトレーニングするための実世界のセキュリティ データにはそのようなバイアスが自然に存在することを主張します。
次に、偏りのある特徴による悪影響を軽減するために、ほとんどの深層学習ベースのモデルに適用できる偏りのないトレーニング戦略を提案します。
このソリューションは、バイアスされたデータから不変埋め込みを学習するディープ ニューラル ネットワークをトレーニングする自己教師あり敵対的トレーニングの手法に基づいています。
私たちは、提案された戦略が CNN ベースと RNN ベースの両方の検出モデルの一般化機能を大幅に向上させることができることを実証するために、幅広い実験を実施しました。

要約(オリジナル)

This paper reveals a data bias issue that can severely affect the performance while conducting a machine learning model for malicious URL detection. We describe how such bias can be identified using interpretable machine learning techniques, and further argue that such biases naturally exist in the real world security data for training a classification model. We then propose a debiased training strategy that can be applied to most deep-learning based models to alleviate the negative effects from the biased features. The solution is based on the technique of self-supervised adversarial training to train deep neural networks learning invariant embedding from biased data. We conduct a wide range of experiments to demonstrate that the proposed strategy can lead to significantly better generalization capability for both CNN-based and RNN-based detection models.

arxiv情報

著者 YunDa Tsai,Cayon Liow,Yin Sheng Siang,Shou-De Lin
発行日 2024-02-09 17:20:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク