Explainable Artificial Intelligence to Detect Image Spam Using Convolutional Neural Network

要約

画像スパム脅威の検出は、インターネットの驚異的な拡大とともに、継続的に人気のある研究分野となっています。本研究では、畳み込みニューラルネットワーク(CNN)アルゴリズムと説明可能な人工知能(XAI)アルゴリズムを用いた、スパム画像検出のための説明可能なフレームワークを提示する。本研究では、CNNモデルを用いて画像スパムをそれぞれ分類する一方、ブラックボックスCNNモデルがスパム画像検出について行った決定に対して説明を提供するために、局所解釈可能モデル不可知論説明(LIME)およびシャプレー加法説明(SHAP)を含むポストホックXAI手法を展開した。我々は、3つの異なる一般に利用可能なメールコーパスから収集したスパム画像と通常画像を含む6636画像データセットに対して、提案アプローチの学習とその後の性能評価を行った。実験結果は、提案フレームワークが様々な性能指標の観点から満足のいく検出結果を達成したことを示す。一方、モデルに依存しないXAIアルゴリズムは、異なるモデルの判断に対して説明を与えることができ、将来の研究のための比較に利用することが可能である。

要約(オリジナル)

Image spam threat detection has continually been a popular area of research with the internet’s phenomenal expansion. This research presents an explainable framework for detecting spam images using Convolutional Neural Network(CNN) algorithms and Explainable Artificial Intelligence (XAI) algorithms. In this work, we use CNN model to classify image spam respectively whereas the post-hoc XAI methods including Local Interpretable Model Agnostic Explanation (LIME) and Shapley Additive Explanations (SHAP) were deployed to provide explanations for the decisions that the black-box CNN models made about spam image detection. We train and then evaluate the performance of the proposed approach on a 6636 image dataset including spam images and normal images collected from three different publicly available email corpora. The experimental results show that the proposed framework achieved satisfactory detection results in terms of different performance metrics whereas the model-independent XAI algorithms could provide explanations for the decisions of different models which could be utilized for comparison for the future study.

arxiv情報

著者 Zhibo Zhang,Ernesto Damiani,Hussam Al Hamadi,Chan Yeob Yeun,Fatma Taher
発行日 2022-09-07 14:02:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV パーマリンク