An AI Architecture with the Capability to Explain Recognition Results

要約

機械学習の結果に対する信頼性を確立するためには、説明可能性が必要である。説明可能な手法の中には、機械学習モデルの重みを説明するためにその場しのぎのアプローチをとるものもあれば、決定に寄与する入力の領域を強調するものもある。これらの手法では、決定をわかりやすく説明することはできない。説明可能な特性ベースのシステムは、平易な言葉で説明を提供することが示されているが、主要な説明不可能な機械学習手法ほどのパフォーマンスは得られていない。本研究では、説明可能性に対するメトリクスの重要性に着目し、パフォーマンスを向上させる2つの方法を提案する。最初の方法は、説明可能なフローと説明不可能なフローの組み合わせを導入し、意思決定の説明可能性を特徴付ける指標を提案する。2つ目の方法は、システム内のニューラルネットワークの有効性を推定するための古典的なメトリックを比較し、新しいメトリックを主要なパフォーマーとして提起する。新しい手法の結果と手書きデータセットからの例を示す。

要約(オリジナル)

Explainability is needed to establish confidence in machine learning results. Some explainable methods take a post hoc approach to explain the weights of machine learning models, others highlight areas of the input contributing to decisions. These methods do not adequately explain decisions, in plain terms. Explainable property-based systems have been shown to provide explanations in plain terms, however, they have not performed as well as leading unexplainable machine learning methods. This research focuses on the importance of metrics to explainability and contributes two methods yielding performance gains. The first method introduces a combination of explainable and unexplainable flows, proposing a metric to characterize explainability of a decision. The second method compares classic metrics for estimating the effectiveness of neural networks in the system, posing a new metric as the leading performer. Results from the new methods and examples from handwritten datasets are presented.

arxiv情報

著者 Paul Whitten,Francis Wolff,Chris Papachristou
発行日 2024-07-03 16:54:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク