要約
機械学習アプリケーションの開発は、大規模なデータセットに隠された複雑なパターンを発見して一般化する学習を活用したシステムの優れた能力によって、近年大幅に増加しています。
最新の学習モデルは強力ではありますが、多くの場合、不透明なブラックボックスになるレベルの複雑さがあり、その結果、透明性が著しく欠如し、その推論を解読する能力が妨げられます。
不透明性は、特に情報に基づいた意思決定に根本的な理由の理解が不可欠な重要な領域において、機械学習の解釈可能性と実際の応用に課題をもたらします。
Explainable Artificial Intelligence (XAI) は、この課題に対処するために登場し、わかりやすい説明を提供することでブラック ボックスの複雑さを解明します。
さまざまな XAI アプローチの中でも、特徴の帰属/重要性は、予測プロセスにおける入力特徴の重要性を描写する能力で際立っています。
ただし、既存の帰属方法のほとんどには、類似または同じインスタンスから異なる説明が生じる可能性がある場合、不安定性などの制限があります。
この研究では、テイラー展開に基づいた新しい局所加法属性エクスプレイナーである T-Explainer を紹介します。
局所的な精度や一貫性などの望ましい特性があり、T-Explainer は複数の実行にわたって安定しています。
私たちは、よく知られたアトリビューション手法に対する定量的なベンチマーク実験における T-Explainer の有効性を実証します。
さらに、説明を評価および視覚化するためのいくつかのツールを提供し、T-Explainer を包括的な XAI フレームワークに変えます。
要約(オリジナル)
The development of machine learning applications has increased significantly in recent years, motivated by the remarkable ability of learning-powered systems to discover and generalize intricate patterns hidden in massive datasets. Modern learning models, while powerful, often have a level of complexity that renders them opaque black boxes, resulting in a notable lack of transparency that hinders our ability to decipher their reasoning. Opacity challenges the interpretability and practical application of machine learning, especially in critical domains where understanding the underlying reasons is essential for informed decision-making. Explainable Artificial Intelligence (XAI) rises to address that challenge, unraveling the complexity of black boxes by providing elucidating explanations. Among the various XAI approaches, feature attribution/importance stands out for its capacity to delineate the significance of input features in the prediction process. However, most existing attribution methods have limitations, such as instability, when divergent explanations may result from similar or even the same instance. This work introduces T-Explainer, a novel local additive attribution explainer based on Taylor expansion. It has desirable properties, such as local accuracy and consistency, making T-Explainer stable over multiple runs. We demonstrate T-Explainer’s effectiveness in quantitative benchmark experiments against well-known attribution methods. Additionally, we provide several tools to evaluate and visualize explanations, turning T-Explainer into a comprehensive XAI framework.
arxiv情報
著者 | Evandro S. Ortigossa,Fábio F. Dias,Brian Barr,Claudio T. Silva,Luis Gustavo Nonato |
発行日 | 2024-08-06 15:03:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google