ATWM: Defense against adversarial malware based on adversarial training

要約

ディープラーニング技術は画像の分野で大きな成果を上げています。
マルウェア攻撃を防御するために、研究者たちは深層学習に基づいた多くの Windows マルウェア検出モデルを提案してきました。
ただし、ディープ ラーニング モデルは、敵対的なサンプル攻撃に対して脆弱です。
マルウェアは、マルウェア検出モデルを攻撃し、モデルの検出を回避するために、同じ悪意のある機能を持つ敵対的なマルウェアを生成できます。
現在、多くの敵対的防御研究が提案されていますが、既存の敵対的防御研究は画像サンプルに基づいており、マルウェア サンプルに直接適用することはできません。
そこで本論文では、敵対的トレーニングに基づいた敵対的マルウェア防御手法を提案する。
この方法では、前処理を使用して単純な敵対的な例を防御し、敵対的なトレーニングの難しさを軽減します。
さらに、この方法は、敵対的トレーニングを通じてモデルの敵対的防御能力を向上させます。
2 セットのデータセットで 3 つの攻撃方法を実験しました。その結果、この論文の方法はモデルの精度を低下させることなく、モデルの敵対的防御能力を向上できることがわかりました。

要約(オリジナル)

Deep learning technology has made great achievements in the field of image. In order to defend against malware attacks, researchers have proposed many Windows malware detection models based on deep learning. However, deep learning models are vulnerable to adversarial example attacks. Malware can generate adversarial malware with the same malicious function to attack the malware detection model and evade detection of the model. Currently, many adversarial defense studies have been proposed, but existing adversarial defense studies are based on image sample and cannot be directly applied to malware sample. Therefore, this paper proposes an adversarial malware defense method based on adversarial training. This method uses preprocessing to defend simple adversarial examples to reduce the difficulty of adversarial training. Moreover, this method improves the adversarial defense capability of the model through adversarial training. We experimented with three attack methods in two sets of datasets, and the results show that the method in this paper can improve the adversarial defense capability of the model without reducing the accuracy of the model.

arxiv情報

著者 Kun Li,Fan Zhang,Wei Guo
発行日 2023-07-11 08:07:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク