Enabling Regional Explainability by Automatic and Model-agnostic Rule Extraction

要約

Explainable AI では、ルール抽出により、モデルの知識が IF-THEN ステートメントなどの論理ルールに変換されます。これは、ブラックボックス モデルによって学習されたパターンを理解するために重要です。
これは、病気の診断、病気の進行の推定、創薬などの分野で大きく役立つ可能性があります。
ただし、そのようなアプリケーション ドメインには、対象となるクラスが過小評価され、不均衡なデータが含まれることがよくあります。
既存の方法では、全体のパフォーマンスを最大化するために、必然的にマイナー クラスのルールのパフォーマンスが犠牲になります。
この分野における最初の試みとして、数値特徴に対する自動ルール生成を特徴とする、データの特定のサブグループからルールを抽出するためのモデルに依存しないアプローチを提案します。
この方法は、機械学習モデルの地域的な説明可能性を強化し、既存の方法と比較してより広い適用可能性を提供します。
さらに、ルールを構成する特徴を選択するための新しい方法を導入し、高次元空間での計算コストを削減します。
さまざまなデータセットとモデルにわたる実験により、私たちの手法の有効性が実証されています。

要約(オリジナル)

In Explainable AI, rule extraction translates model knowledge into logical rules, such as IF-THEN statements, crucial for understanding patterns learned by black-box models. This could significantly aid in fields like disease diagnosis, disease progression estimation, or drug discovery. However, such application domains often contain imbalanced data, with the class of interest underrepresented. Existing methods inevitably compromise the performance of rules for the minor class to maximise the overall performance. As the first attempt in this field, we propose a model-agnostic approach for extracting rules from specific subgroups of data, featuring automatic rule generation for numerical features. This method enhances the regional explainability of machine learning models and offers wider applicability compared to existing methods. We additionally introduce a new method for selecting features to compose rules, reducing computational costs in high-dimensional spaces. Experiments across various datasets and models demonstrate the effectiveness of our methods.

arxiv情報

著者 Yu Chen,Tianyu Cui,Alexander Capstick,Nan Fletcher-Loyd,Payam Barnaghi
発行日 2024-08-15 13:08:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク