Extracting Explanations, Justification, and Uncertainty from Black-Box Deep Neural Networks

要約

ディープ ニューラル ネットワーク (DNN) は、本質的に、経験的に正当化されたタスクの信頼度を計算したり示したりすることはありません。
ミッションクリティカルなアプリケーションでは、関連する DNN 推論とその裏付けとなる証拠の両方を理解することが重要です。
この論文では、DNN から説明、正当化、および不確実性の推定値を抽出するための新しいベイジアン アプローチを提案します。
私たちのアプローチはメモリと計算の両方の点で効率的であり、異常検出や分布外検出タスクへのアプリケーションを含め、再トレーニングなしであらゆるブラック ボックス DNN に適用できます。
CIFAR-10 データセットに対するアプローチを検証し、DNN の解釈可能性と信頼性を大幅に向上できることを示します。

要約(オリジナル)

Deep Neural Networks (DNNs) do not inherently compute or exhibit empirically-justified task confidence. In mission critical applications, it is important to both understand associated DNN reasoning and its supporting evidence. In this paper, we propose a novel Bayesian approach to extract explanations, justifications, and uncertainty estimates from DNNs. Our approach is efficient both in terms of memory and computation, and can be applied to any black box DNN without any retraining, including applications to anomaly detection and out-of-distribution detection tasks. We validate our approach on the CIFAR-10 dataset, and show that it can significantly improve the interpretability and reliability of DNNs.

arxiv情報

著者 Paul Ardis,Arjuna Flenner
発行日 2024-03-13 16:06:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, I.2.10, stat.ML パーマリンク