Declarative Reasoning on Explanations Using Constraint Logic Programming

要約

不透明な機械学習(ML)モデルを説明することは、ますます重要な問題になっている。現在のAIにおける説明(XAI)手法には、いくつかの欠点がある。特に、背景知識の取り込みが不十分であること、抽象化とユーザとの対話性が欠如していることなどが挙げられる。我々は、制約論理プログラミング(CLP)に基づく説明手法であるREASONXを提案する。REASONXは、決定木に対して宣言的で対話的な説明を提供することができる。決定木は、分析対象のMLモデルであっても、あらゆるブラックボックスモデルのグローバル/ローカルサロゲートモデルであってもよい。ユーザは、事実的・対照的インスタンスの特徴に対する線形制約とMILP最適化を用いて、背景知識や常識的知識を表現することができ、制約射影を通して、異なる抽象度で解答制約と対話することができる。REASONXのアーキテクチャは、ユーザにより近いPythonレイヤとCLPレイヤから構成される。REASONXのコア実行エンジンは、論理理論による宣言的セマンティクスを持つPrologメタ・プログラムである。

要約(オリジナル)

Explaining opaque Machine Learning (ML) models is an increasingly relevant problem. Current explanation in AI (XAI) methods suffer several shortcomings, among others an insufficient incorporation of background knowledge, and a lack of abstraction and interactivity with the user. We propose REASONX, an explanation method based on Constraint Logic Programming (CLP). REASONX can provide declarative, interactive explanations for decision trees, which can be the ML models under analysis or global/local surrogate models of any black-box model. Users can express background or common sense knowledge using linear constraints and MILP optimization over features of factual and contrastive instances, and interact with the answer constraints at different levels of abstraction through constraint projection. We present here the architecture of REASONX, which consists of a Python layer, closer to the user, and a CLP layer. REASONX’s core execution engine is a Prolog meta-program with declarative semantics in terms of logic theories.

arxiv情報

著者 Laura State,Salvatore Ruggieri,Franco Turini
発行日 2023-09-01 12:31:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.LG, cs.SC パーマリンク