Visual correspondence-based explanations improve AI robustness and human-AI team accuracy

要約

人工知能 (AI) の予測を説明することはますます重要になり、人間が最終的な意思決定者である多くのハイ ステークス アプリケーションでは必須です。
この作業では、クエリ画像と手本の間の視覚的な対応を利用して、最初に説明し、次に (事後説明とは対照的に) 予測する、自己解釈可能な画像分類器の 2 つの新しいアーキテクチャを提案します。
私たちのモデルは、分布外 (OOD) データセットで一貫して (1 から 4 ポイント) 改善しますが、分布内テストでは、ResNet-50 および $k$ 最近傍分類器よりもわずかに悪い (1 から 2 ポイント) パフォーマンスを発揮します。
(kNN)。
ImageNet と CUB に関する大規模な人間の研究により、私たちの通信ベースの説明は、kNN の説明よりもユーザーにとって有用であることがわかりました。
私たちの説明は、他のすべてのテスト済みの方法よりも、ユーザーが AI の間違った決定をより正確に拒否するのに役立ちます。
興味深いことに、ImageNet および CUB の画像分類タスクで、人間と AI のチームによる補完的な精度 (つまり、AI 単独または人間単独の精度よりも高い精度) を達成できることを初めて示しました。

要約(オリジナル)

Explaining artificial intelligence (AI) predictions is increasingly important and even imperative in many high-stakes applications where humans are the ultimate decision-makers. In this work, we propose two novel architectures of self-interpretable image classifiers that first explain, and then predict (as opposed to post-hoc explanations) by harnessing the visual correspondences between a query image and exemplars. Our models consistently improve (by 1 to 4 points) on out-of-distribution (OOD) datasets while performing marginally worse (by 1 to 2 points) on in-distribution tests than ResNet-50 and a $k$-nearest neighbor classifier (kNN). Via a large-scale, human study on ImageNet and CUB, our correspondence-based explanations are found to be more useful to users than kNN explanations. Our explanations help users more accurately reject AI’s wrong decisions than all other tested methods. Interestingly, for the first time, we show that it is possible to achieve complementary human-AI team accuracy (i.e., that is higher than either AI-alone or human-alone), in ImageNet and CUB image classification tasks.

arxiv情報

著者 Giang Nguyen,Mohammad Reza Taesiri,Anh Nguyen
発行日 2022-08-02 17:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG パーマリンク