Tensor Networks for Explainable Machine Learning in Cybersecurity

要約

この論文では、テンソル ネットワークが機械学習アルゴリズムの説明可能性の開発にどのように役立つかを示します。
具体的には、マトリックス プロダクト ステート (MPS) に基づいた教師なしクラスタリング アルゴリズムを開発し、それを敵対者が生成した脅威インテリジェンスの実際のユースケースのコンテキストに適用します。
私たちの調査により、MPS はパフォーマンスの点でオートエンコーダーや GAN などの従来の深層学習モデルに匹敵し、さらにより豊富なモデルの解釈可能性を提供することが証明されました。
私たちのアプローチは、特徴ごとの確率、フォン・ノイマン・エントロピー、および相互情報量の抽出を自然に促進し、異常の分類に説得力のある物語を提供し、人工知能の意思決定の背後にある理論的根拠を理解するための基礎となる、前例のないレベルの透明性と解釈可能性を促進します。

要約(オリジナル)

In this paper we show how tensor networks help in developing explainability of machine learning algorithms. Specifically, we develop an unsupervised clustering algorithm based on Matrix Product States (MPS) and apply it in the context of a real use-case of adversary-generated threat intelligence. Our investigation proves that MPS rival traditional deep learning models such as autoencoders and GANs in terms of performance, while providing much richer model interpretability. Our approach naturally facilitates the extraction of feature-wise probabilities, Von Neumann Entropy, and mutual information, offering a compelling narrative for classification of anomalies and fostering an unprecedented level of transparency and interpretability, something fundamental to understand the rationale behind artificial intelligence decisions.

arxiv情報

著者 Borja Aizpurua,Roman Orus
発行日 2024-01-05 11:40:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, quant-ph パーマリンク