A redescription mining framework for post-hoc explaining and relating deep learning models

要約

ディープラーニングモデル(DLM)は、構造化データでも非構造化データでも、ますます高い性能を達成している。ディープラーニングは、機械学習の適用範囲を様々な領域へと大幅に拡大した。予測、パターンの検出、新しいデータの生成における成功は、科学や産業に大きな影響を与えた。このような業績にもかかわらず、DLMはその巨大さゆえに説明が難しい。本研究では、再記述を用いてDLMを事後的に説明し関連付けるための新しいフレームワークを提案する。このフレームワークは、ニューロンの活性化に関する統計的に有意な再記述を同定することにより、任意のDLMのコホート分析を可能にする。これにより、ニューロンをターゲットラベルの集合や記述属性の集合に結合し、単一のDLM内の層を関連付けたり、異なるDLMを関連付けたりすることができる。提案するフレームワークは人工ニューラルネットワークアーキテクチャに依存せず、より複雑なターゲットラベル(例えばマルチラベルやマルチターゲットシナリオ)を扱うことができる。さらに、ルール抽出に対する教育的アプローチと分解的アプローチの両方をエミュレートできる。提案フレームワークの前述の特性は、既存の説明可能なAIアプローチと比較して異なる情報を提供することにより、任意のDLMの説明可能性と解釈可能性を向上させることができる。

要約(オリジナル)

Deep learning models (DLMs) achieve increasingly high performance both on structured and unstructured data. They significantly extended applicability of machine learning to various domains. Their success in making predictions, detecting patterns and generating new data made significant impact on science and industry. Despite these accomplishments, DLMs are difficult to explain because of their enormous size. In this work, we propose a novel framework for post-hoc explaining and relating DLMs using redescriptions. The framework allows cohort analysis of arbitrary DLMs by identifying statistically significant redescriptions of neuron activations. It allows coupling neurons to a set of target labels or sets of descriptive attributes, relating layers within a single DLM or associating different DLMs. The proposed framework is independent of the artificial neural network architecture and can work with more complex target labels (e.g. multi-label or multi-target scenario). Additionally, it can emulate both pedagogical and decompositional approach to rule extraction. The aforementioned properties of the proposed framework can increase explainability and interpretability of arbitrary DLMs by providing different information compared to existing explainable-AI approaches.

arxiv情報

著者 Matej Mihelčić,Ivan Grubišić,Miha Keber
発行日 2025-01-02 11:38:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク