要約
深層学習モデルの信頼できる説明を提供するには、不確実性を組み込むことが重要です。
最近の研究では、不確実性モデリングが教師なし表現学習説明可能人工知能 (R-XAI) の分野でいかに重要であるかを実証しました。
現在の R-XAI メソッドは、重要度スコアの変動を測定することで不確実性を提供します。
ただし、ピクセルが確かに重要かどうかについて意味のある推定値を提供することはできません。
この研究では、ピクセルが \textit{確かに} 重要かどうかという重要な問題に対処する、REPEAT と呼ばれる新しい R-XAI 手法を提案します。
REPEAT は、現在の R-XAI メソッドの確率性を活用して重要度の複数の推定値を生成するため、画像内の各ピクセルを重要または重要でないベルヌーイ確率変数として考慮します。
これらのベルヌーイ確率変数から、ピクセルの重要性とそれに関連する確実性を直接推定できるため、ユーザーはピクセルの重要性の確実性を判断できます。
私たちの広範な評価により、REPEAT はより直観的で、分布外のデータの検出に優れ、より簡潔な確実性の推定値が得られることがわかりました。
要約(オリジナル)
Incorporating uncertainty is crucial to provide trustworthy explanations of deep learning models. Recent works have demonstrated how uncertainty modeling can be particularly important in the unsupervised field of representation learning explainable artificial intelligence (R-XAI). Current R-XAI methods provide uncertainty by measuring variability in the importance score. However, they fail to provide meaningful estimates of whether a pixel is certainly important or not. In this work, we propose a new R-XAI method called REPEAT that addresses the key question of whether or not a pixel is \textit{certainly} important. REPEAT leverages the stochasticity of current R-XAI methods to produce multiple estimates of importance, thus considering each pixel in an image as a Bernoulli random variable that is either important or unimportant. From these Bernoulli random variables we can directly estimate the importance of a pixel and its associated certainty, thus enabling users to determine certainty in pixel importance. Our extensive evaluation shows that REPEAT gives certainty estimates that are more intuitive, better at detecting out-of-distribution data, and more concise.
arxiv情報
| 著者 | Kristoffer K. Wickstrøm,Thea Brüsch,Michael C. Kampffmeyer,Robert Jenssen |
| 発行日 | 2024-12-11 16:24:31+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google