FAME: Introducing Fuzzy Additive Models for Explainable AI

要約

この研究では、説明可能な人工知能(XAI)のソリューションとして説明可能性(名声)を備えたファジー添加剤モデル(FAM)とFAMを紹介します。
ファミリは3つの層で構成されています。(1)入力空間を圧縮する投影層、(2)SFLSが追加インデックスモデル内のサブネットワークとして機能する単一の入力出力ファジーロジックシステム(SFLS)の上に構築されたファジーレイヤー、および(3)アグリゲーションレイヤー。
このアーキテクチャは、SFLの解釈可能性を統合します。SFLは、人間の理解可能な場合に使用されるルールを使用し、入出力関係の説明可能性を統合し、添加剤モデル構造を活用します。
さらに、SFLを使用すると、本質的に次元の呪いやルール爆発などの問題に対処します。
解釈可能性をさらに向上させるために、FAM内の先行空間を彫刻し、それを名声に変える方法を提案します。
名声が、より少ないアクティブなルールで入出力関係を捉え、したがって明確さを改善することを示しています。
Famファミリーを学ぶために、深い学習フレームワークを提示します。
提示された比較結果を通じて、解釈可能性を維持しながらモデルの複雑さを減らし、Xaiにとって貴重なツールとして配置するという名声の有望な可能性を示します。

要約(オリジナル)

In this study, we introduce the Fuzzy Additive Model (FAM) and FAM with Explainability (FAME) as a solution for Explainable Artificial Intelligence (XAI). The family consists of three layers: (1) a Projection Layer that compresses the input space, (2) a Fuzzy Layer built upon Single Input-Single Output Fuzzy Logic Systems (SFLS), where SFLS functions as subnetworks within an additive index model, and (3) an Aggregation Layer. This architecture integrates the interpretability of SFLS, which uses human-understandable if-then rules, with the explainability of input-output relationships, leveraging the additive model structure. Furthermore, using SFLS inherently addresses issues such as the curse of dimensionality and rule explosion. To further improve interpretability, we propose a method for sculpting antecedent space within FAM, transforming it into FAME. We show that FAME captures the input-output relationships with fewer active rules, thus improving clarity. To learn the FAM family, we present a deep learning framework. Through the presented comparative results, we demonstrate the promising potential of FAME in reducing model complexity while retaining interpretability, positioning it as a valuable tool for XAI.

arxiv情報

著者 Omer Bahadir Gokmen,Yusuf Guven,Tufan Kumbasar
発行日 2025-04-09 16:29:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク