要約
このペーパーでは、テンソルネットワークが機械学習アルゴリズムの説明可能性の開発にどのように役立つかを示します。
具体的には、マトリックス積状態(MP)に基づいて監視されていないクラスタリングアルゴリズムを開発し、敵対的な脅威インテリジェンスの実際のユースケースのコンテキストでそれを適用します。
私たちの調査では、MPSはパフォーマンスの観点から自動エンコーダーやGANなどの従来のディープラーニングモデルに対抗し、モデルの解釈がはるかに豊富であることが証明されています。
私たちのアプローチは、特徴的な確率、フォン・ノイマンのエントロピー、および相互情報の抽出を自然に促進し、異常の分類と前例のないレベルの透明性と解釈性を促進するための説得力のある物語を提供します。
要約(オリジナル)
In this paper we show how tensor networks help in developing explainability of machine learning algorithms. Specifically, we develop an unsupervised clustering algorithm based on Matrix Product States (MPS) and apply it in the context of a real use-case of adversary-generated threat intelligence. Our investigation proves that MPS rival traditional deep learning models such as autoencoders and GANs in terms of performance, while providing much richer model interpretability. Our approach naturally facilitates the extraction of feature-wise probabilities, Von Neumann Entropy, and mutual information, offering a compelling narrative for classification of anomalies and fostering an unprecedented level of transparency and interpretability, something fundamental to understand the rationale behind artificial intelligence decisions.
arxiv情報
著者 | Borja Aizpurua,Samuel Palmer,Roman Orus |
発行日 | 2025-04-25 14:56:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google