要約
人工知能(AI)の予測を説明することは、人間が最終的な意思決定者である多くの利害関係の強いアプリケーションにおいて、ますます重要になり、必須とさえなっている。本研究では、クエリ画像と模範画像の間の視覚的対応関係を利用して、まず説明し、次に予測する(事後的説明ではなく)自己解釈可能な画像分類器の2つの新しいアーキテクチャを提案する。本論文では、ResNet-50や$k$-nearest neighbor分類器(kNN)と比較して、分布内テストでは1〜2ポイント低下するが、分布外データセットでは1〜4ポイント向上することを示す。ImageNetとCUBを用いた大規模な人間実験により、我々の対応関係ベースの説明は、kNNの説明よりもユーザにとって有用であることがわかった。我々の説明は、他の全てのテストされた方法よりも、ユーザがAIの誤った判断をより正確に拒否するのに役立つ。興味深いことに、我々は初めて、ImageNetとCUBの画像分類課題において、人間とAIによるチーム精度の補完(すなわち、AI単独または人間単独のどちらよりも高い)を達成することが可能であることを示す。
要約(オリジナル)
Explaining artificial intelligence (AI) predictions is increasingly important and even imperative in many high-stakes applications where humans are the ultimate decision-makers. In this work, we propose two novel architectures of self-interpretable image classifiers that first explain, and then predict (as opposed to post-hoc explanations) by harnessing the visual correspondences between a query image and exemplars. Our models consistently improve (by 1 to 4 points) on out-of-distribution (OOD) datasets while performing marginally worse (by 1 to 2 points) on in-distribution tests than ResNet-50 and a $k$-nearest neighbor classifier (kNN). Via a large-scale, human study on ImageNet and CUB, our correspondence-based explanations are found to be more useful to users than kNN explanations. Our explanations help users more accurately reject AI’s wrong decisions than all other tested methods. Interestingly, for the first time, we show that it is possible to achieve complementary human-AI team accuracy (i.e., that is higher than either AI-alone or human-alone), in ImageNet and CUB image classification tasks.
arxiv情報
著者 | Giang Nguyen,Mohammad Reza Taesiri,Anh Nguyen |
発行日 | 2022-10-04 15:41:46+00:00 |
arxivサイト | arxiv_id(pdf) |