Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features

要約

複雑なニューラル ネットワーク (NN) ベースのモデルのブラック ボックスの性質は、予測に対する論理的な説明と実用的なフォローアップが欠如しているため、セキュリティ ドメインでの広範な採用を妨げています。
システム来歴分析で使用されるグラフ ニューラル ネットワーク (GNN) セキュリティ モデルの透明性と説明責任を強化するために、抽象的な GNN 決定境界を解釈可能な特徴空間に投影するためのフレームワークである PROVEXPLAINER を提案します。
まず、デシジョン ツリー (DT) などのより単純で説明可能なモデルを使用して、GNN ベースのセキュリティ モデルの意思決定プロセスを複製します。
サロゲート モデルの精度と忠実度を最大化するために、古典的なグラフ理論に基づいて、セキュリティ ドメインの知識による広範なデータ研究によって強化された新しいグラフ構造の特徴を提案します。
私たちのグラフ構造の特徴は、システム来歴ドメインの問題空間アクションと密接に結びついており、これにより、検出結果を記述的な人間の言語で説明できるようになります。
PROVEXPLAINER を使用すると、単純な DT モデルで、一般的なグラフ構造機能を備えたプログラム分類タスクでは GNN に対する 95% の忠実度を達成でき、直接解釈用に調整されたタスク固有の機能パッケージを備えたマルウェア検出タスクでは 99% の忠実度を達成できました。
マルウェア分類の説明は、3 つのマルウェア ファミリにわたる 5 つの実際のマルウェア サンプルのケース スタディで実証されています。

要約(オリジナル)

The black-box nature of complex Neural Network (NN)-based models has hindered their widespread adoption in security domains due to the lack of logical explanations and actionable follow-ups for their predictions. To enhance the transparency and accountability of Graph Neural Network (GNN) security models used in system provenance analysis, we propose PROVEXPLAINER, a framework for projecting abstract GNN decision boundaries onto interpretable feature spaces. We first replicate the decision-making process of GNNbased security models using simpler and explainable models such as Decision Trees (DTs). To maximize the accuracy and fidelity of the surrogate models, we propose novel graph structural features founded on classical graph theory and enhanced by extensive data study with security domain knowledge. Our graph structural features are closely tied to problem-space actions in the system provenance domain, which allows the detection results to be explained in descriptive, human language. PROVEXPLAINER allowed simple DT models to achieve 95% fidelity to the GNN on program classification tasks with general graph structural features, and 99% fidelity on malware detection tasks with a task-specific feature package tailored for direct interpretation. The explanations for malware classification are demonstrated with case studies of five real-world malware samples across three malware families.

arxiv情報

著者 Kunal Mukherjee,Joshua Wiedemeier,Tianhao Wang,Muhyun Kim,Feng Chen,Murat Kantarcioglu,Kangkook Jee
発行日 2023-06-01 17:36:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク