要約
機械学習アルゴリズムの説明可能性は非常に重要であり、最近では数多くの手法が登場しています。
ローカルなポストホック手法では、各特徴にアトリビューション スコアを割り当て、予測におけるその重要性を示します。
ただし、これらの方法では、例ごとに説明を再計算する必要があります。
一方で、グローバルなアプローチは存在しますが、それらが生み出す説明は、あまりにも単純すぎて信頼性が低いか、過度に複雑であることがよくあります。
このギャップを埋めるために、入力空間を分割し、各サブ領域内で解釈可能なモデルを学習する新しい方法である GLEAMS を提案します。これにより、忠実なローカル サロゲートとグローバル サロゲートの両方が提供されます。
私たちは、合成データと現実世界のデータの両方に対する GLEAMS の有効性を実証し、その望ましい特性と人間が理解できる洞察を強調します。
要約(オリジナル)
The explainability of machine learning algorithms is crucial, and numerous methods have emerged recently. Local, post-hoc methods assign an attribution score to each feature, indicating its importance for the prediction. However, these methods require recalculating explanations for each example. On the other side, while there exist global approaches they often produce explanations that are either overly simplistic and unreliable or excessively complex. To bridge this gap, we propose GLEAMS, a novel method that partitions the input space and learns an interpretable model within each sub-region, thereby providing both faithful local and global surrogates. We demonstrate GLEAMS’ effectiveness on both synthetic and real-world data, highlighting its desirable properties and human-understandable insights.
arxiv情報
著者 | Giorgio Visani,Vincenzo Stanzione,Damien Garreau |
発行日 | 2024-08-09 13:30:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google