Explainable AI by BAPC — Before and After correction Parameter Comparison

要約

より単純な「ベース」モデルを修正する AI モデルのローカル サロゲートが導入され、AI 予測の説明を生み出す分析方法が表現されます。
ここでは、基本モデルが線形回帰であるというコンテキストでこのアプローチを検討します。
AI モデルは線形モデルの残差を近似し、解釈可能なベース モデルのパラメーターの変化に関して説明が定式化されます。
基準は、サロゲートの損失精度、AI モデルの精度、およびサロゲートの忠実度の間の正確な関係について定式化されます。
観察されたデータに特定の最大量のノイズがあると仮定すると、これらの基準により、最大の精度と忠実度の点で理想的なサイズを持つ説明対象のインスタンスの近傍が誘導されることが示されています。

要約(オリジナル)

A local surrogate for an AI-model correcting a simpler ‘base’ model is introduced representing an analytical method to yield explanations of AI-predictions. The approach is studied here in the context of the base model being linear regression. The AI-model approximates the residual error of the linear model and the explanations are formulated in terms of the change of the interpretable base model’s parameters. Criteria are formulated for the precise relation between lost accuracy of the surrogate, the accuracy of the AI-model, and the surrogate fidelity. It is shown that, assuming a certain maximal amount of noise in the observed data, these criteria induce neighborhoods of the instances to be explained which have an ideal size in terms of maximal accuracy and fidelity.

arxiv情報

著者 Florian Sobieczky,Manuela Geiß
発行日 2023-09-11 15:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク