要約
説明可能なAI(XAI)は、人間とAIの共同作業を伴う下流作業を支援する貴重なツールとして提案されている。おそらく最も心理学的に妥当なXAI手法は、ブラックボックスのAIシステムの予測を説明するために「全体的な」模範例を表示するケースベースのアプローチである。しかし、画像を扱うこのようなその場しのぎのXAI手法では、画像の複数の明確な特徴「部分」を使って予測を説明し、同時に学習データの関連事例にリンクさせることで、その範囲を改善する試みがなされてこなかった。ここでは、テスト画像内の複数の明確な特徴部分を分離し、それらを訓練データで発見された説明事例と結びつけることができる2つの一般的なアルゴリズム(潜在画素ベースとスーパー画素ベース)を提案することで、このギャップに対処する。その結果、提案アプローチは、ImageNetデータセットの実世界データにおける曖昧な分類に対して、ユーザの「正しさ」の感覚を適切に較正することが実証された。
要約(オリジナル)
Explainable AI (XAI) has been proposed as a valuable tool to assist in downstream tasks involving human and AI collaboration. Perhaps the most psychologically valid XAI techniques are case based approaches which display ‘whole’ exemplars to explain the predictions of black box AI systems. However, for such post hoc XAI methods dealing with images, there has been no attempt to improve their scope by using multiple clear feature ‘parts’ of the images to explain the predictions while linking back to relevant cases in the training data, thus allowing for more comprehensive explanations that are faithful to the underlying model. Here, we address this gap by proposing two general algorithms (latent and super pixel based) which can isolate multiple clear feature parts in a test image, and then connect them to the explanatory cases found in the training data, before testing their effectiveness in a carefully designed user study. Results demonstrate that the proposed approach appropriately calibrates a users feelings of ‘correctness’ for ambiguous classifications in real world data on the ImageNet dataset, an effect which does not happen when just showing the explanation without feature highlighting.
arxiv情報
著者 | Eoin Kenny,Eoin Delaney,Mark Keane |
発行日 | 2023-11-06 16:34:48+00:00 |
arxivサイト | arxiv_id(pdf) |