Explaining Decisions in ML Models: a Parameterized Complexity Analysis

要約

この論文では、さまざまな機械学習 (ML) モデルにおける説明問題のパラメーター化された複雑さについての包括的な理論的調査を示します。
一般的なブラックボックスの認識とは対照的に、私たちの研究は透明な内部メカニズムを持つモデルに焦点を当てています。
私たちは、ローカルとグローバルの両方で、アブダクティブとコントラストという 2 つの主要なタイプの説明問題に取り組みます。
私たちの分析は、デシジョン ツリー、デシジョン セット、デシジョン リスト、順序付き二分決定図、ランダム フォレスト、ブール回路、およびそれらのアンサンブルを含む多様な ML モデルを網羅しており、それぞれが独自の説明上の課題を提供します。
この研究は、これらのモデルの説明を生成する複雑さについての基礎的な理解を提供することで、Explainable AI (XAI) における大きなギャップを埋めます。
この研究は、XAI の分野におけるさらなる研究に不可欠な洞察を提供し、AI システムにおける透明性と説明責任の必要性についてのより広範な議論に貢献します。

要約(オリジナル)

This paper presents a comprehensive theoretical investigation into the parameterized complexity of explanation problems in various machine learning (ML) models. Contrary to the prevalent black-box perception, our study focuses on models with transparent internal mechanisms. We address two principal types of explanation problems: abductive and contrastive, both in their local and global variants. Our analysis encompasses diverse ML models, including Decision Trees, Decision Sets, Decision Lists, Ordered Binary Decision Diagrams, Random Forests, and Boolean Circuits, and ensembles thereof, each offering unique explanatory challenges. This research fills a significant gap in explainable AI (XAI) by providing a foundational understanding of the complexities of generating explanations for these models. This work provides insights vital for further research in the domain of XAI, contributing to the broader discourse on the necessity of transparency and accountability in AI systems.

arxiv情報

著者 Sebastian Ordyniak,Giacomo Paesani,Mateusz Rychlicki,Stefan Szeider
発行日 2024-07-22 16:37:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CC パーマリンク