Eclectic Rule Extraction for Explainability of Deep Neural Network based Intrusion Detection Systems

要約

このペーパーでは、Explainable Intrusion Detection Systems (X-IDS) におけるブラック ボックス アルゴリズムと代理説明子の普及によって生じる信頼性の問題について取り上げます。
Explainable Artificial Intelligence (XAI) は透明性を高めることを目的としていますが、Local Interpretable Model-Agnostic Description (LIME) や SHapley Additive exPlanation (SHAP) などのブラック ボックスの代理説明者は信頼することが困難です。
これらの代理説明子のブラックボックスの性質により、説明生成の背後にあるプロセスが不透明で理解しにくくなります。
この問題を回避するには、ルール抽出 (RE) などの透明なホワイト ボックス アルゴリズムを使用できます。
RE アルゴリズムには、教育的、分解的、および折衷的の 3 つのタイプがあります。
教育的手法は高速ではあるが信頼できないホワイトボックス説明を提供しますが、分解 RE はスケーラビリティに乏しい信頼できる説明を提供します。
この研究では、スケーラビリティと信頼性のバランスをとる折衷的なルール抽出を検討します。
教育的アプローチと分解的アプローチの手法を組み合わせることで、折衷的なルール抽出は両方の利点を活用しながら、欠点の一部を軽減します。
提案されたハイブリッド X-IDS アーキテクチャは、ブラック ボックスのディープ ニューラル ネットワーク (DNN) のホワイト ボックスの代理説明子として折衷的な RE を特徴としています。
提示された折衷的な RE アルゴリズムは、隠れ層から人間が読めるルールを抽出し、説明可能で信頼できるルールセットを容易にします。
UNSW-NB15 および CIC-IDS-2017 データセットの評価では、DNN 出力を模倣して 99.9% の精度でルールセットを生成するアルゴリズムの能力が実証されています。
この研究の貢献には、ハイブリッド X-IDS アーキテクチャ、侵入検知データセットに適用できる折衷的なルール抽出アルゴリズム、パフォーマンスと説明可能性の徹底的な分析が含まれており、ルール抽出の速度と精度に関係するトレードオフが実証されています。

要約(オリジナル)

This paper addresses trust issues created from the ubiquity of black box algorithms and surrogate explainers in Explainable Intrusion Detection Systems (X-IDS). While Explainable Artificial Intelligence (XAI) aims to enhance transparency, black box surrogate explainers, such as Local Interpretable Model-Agnostic Explanation (LIME) and SHapley Additive exPlanation (SHAP), are difficult to trust. The black box nature of these surrogate explainers makes the process behind explanation generation opaque and difficult to understand. To avoid this problem, one can use transparent white box algorithms such as Rule Extraction (RE). There are three types of RE algorithms: pedagogical, decompositional, and eclectic. Pedagogical methods offer fast but untrustworthy white-box explanations, while decompositional RE provides trustworthy explanations with poor scalability. This work explores eclectic rule extraction, which strikes a balance between scalability and trustworthiness. By combining techniques from pedagogical and decompositional approaches, eclectic rule extraction leverages the advantages of both, while mitigating some of their drawbacks. The proposed Hybrid X-IDS architecture features eclectic RE as a white box surrogate explainer for black box Deep Neural Networks (DNN). The presented eclectic RE algorithm extracts human-readable rules from hidden layers, facilitating explainable and trustworthy rulesets. Evaluations on UNSW-NB15 and CIC-IDS-2017 datasets demonstrate the algorithm’s ability to generate rulesets with 99.9% accuracy, mimicking DNN outputs. The contributions of this work include the hybrid X-IDS architecture, the eclectic rule extraction algorithm applicable to intrusion detection datasets, and a thorough analysis of performance and explainability, demonstrating the trade-offs involved in rule extraction speed and accuracy.

arxiv情報

著者 Jesse Ables,Nathaniel Childers,William Anderson,Sudip Mittal,Shahram Rahimi,Ioana Banicescu,Maria Seale
発行日 2024-01-18 18:45:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク