Counterfactual Explanations for Land Cover Mapping in a Multi-class Setting

要約

反実仮想的な説明は、深層学習モデルの解釈可能性を高めるための新たなツールである。サンプルが与えられたとき、これらの方法は、決定境界を越えて類似のサンプルを見つけ、ユーザーに表示することを求める。本論文では、土地被覆分類タスクのためのマルチクラス設定における衛星画像時系列に対する生成的敵対的反実仮想アプローチを提案する。提案手法の特徴の一つは、与えられた反実仮想の説明に対して、対象となるクラスに対する事前仮定がないことである。この固有の柔軟性により、土地被覆クラス間の関係に関する興味深い情報を発見することができる。もう一つの特徴は、反実仮想が小さくコンパクトな時間区分においてのみ、元のサンプルと異なるように促すことである。このような時間的に連続した摂動により、よりスパースな、従って解釈可能な解が得られる。さらに、生成された反実仮想の説明の妥当性/現実性は、提案する敵対的学習戦略によって強制される。

要約(オリジナル)

Counterfactual explanations are an emerging tool to enhance interpretability of deep learning models. Given a sample, these methods seek to find and display to the user similar samples across the decision boundary. In this paper, we propose a generative adversarial counterfactual approach for satellite image time series in a multi-class setting for the land cover classification task. One of the distinctive features of the proposed approach is the lack of prior assumption on the targeted class for a given counterfactual explanation. This inherent flexibility allows for the discovery of interesting information on the relationship between land cover classes. The other feature consists of encouraging the counterfactual to differ from the original sample only in a small and compact temporal segment. These time-contiguous perturbations allow for a much sparser and, thus, interpretable solution. Furthermore, plausibility/realism of the generated counterfactual explanations is enforced via the proposed adversarial learning strategy.

arxiv情報

著者 Cassio F. Dantas,Diego Marcos,Dino Ienco
発行日 2023-01-04 10:17:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク