Contrastive Counterfactual Visual Explanations With Overdetermination

要約

本論文では、CLEAR Imageと呼ばれる新しい説明可能なAI手法を紹介する。CLEAR Imageは、納得のいく説明は、対比的で、反実仮想的で、測定可能であるべきだという考えに基づいている。CLEAR Imageは、画像の分類確率を、敵対的学習によって自動的に生成された対応する画像と対比することによって説明する。これにより、顕著なセグメンテーションと、各セグメンテーションの重要性を忠実に決定する摂動の両方が可能になる。CLEAR Imageは医療画像のケーススタディに適用され、新しいポインティングゲームメトリックスを用いて、Grad-CAMやLIMEなどの手法を平均27%上回る性能を示すことに成功しました。CLEAR Imageは、画像内に複数のパッチが存在し、そのうちの1つだけでも分類確率が1に近くなるような「因果的過決定」のケースの識別に優れています。

要約(オリジナル)

A novel explainable AI method called CLEAR Image is introduced in this paper. CLEAR Image is based on the view that a satisfactory explanation should be contrastive, counterfactual and measurable. CLEAR Image explains an image’s classification probability by contrasting the image with a corresponding image generated automatically via adversarial learning. This enables both salient segmentation and perturbations that faithfully determine each segment’s importance. CLEAR Image was successfully applied to a medical imaging case study where it outperformed methods such as Grad-CAM and LIME by an average of 27% using a novel pointing game metric. CLEAR Image excels in identifying cases of ‘causal overdetermination’ where there are multiple patches in an image, any one of which is sufficient by itself to cause the classification probability to be close to one.

arxiv情報

著者 Adam White,Kwun Ho Ngan,James Phelan,Saman Sadeghi Afgeh,Kevin Ryan,Constantino Carlos Reyes-Aldasoro,Artur d’Avila Garcez
発行日 2022-06-09 11:34:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク