CF-OPT: Counterfactual Explanations for Structured Prediction

要約

ディープニューラルネットワークの最適化層は、構造化学習において人気が高まっており、様々なアプリケーションの技術水準を向上させている。しかし、これらのパイプラインは、ディープニューラルネットワークのような高度に非線形な予測モデルと、一般的に複雑なブラックボックスソルバーである最適化層という、2つの不透明な層で構成されているため、解釈可能性に欠けている。我々の目標は、反事実的な説明を提供することによって、このような手法の透明性を向上させることである。我々は、変分オートエンコーダをベースに、反事実を得るための原理的な方法を構築する。最後に、VAEトレーニングのための古典的な損失の変形を導入し、我々の特定の構造化された文脈における性能を向上させる。これらはCF-OPTの基礎となるものであり、構造化学習アーキテクチャの幅広いクラスに対して、反事実的説明を見つけることができる一次最適化アルゴリズムである。我々の数値結果は、最近の文献から得られた問題に対して、近い説明ともっともらしい説明の両方が得られることを示している。

要約(オリジナル)

Optimization layers in deep neural networks have enjoyed a growing popularity in structured learning, improving the state of the art on a variety of applications. Yet, these pipelines lack interpretability since they are made of two opaque layers: a highly non-linear prediction model, such as a deep neural network, and an optimization layer, which is typically a complex black-box solver. Our goal is to improve the transparency of such methods by providing counterfactual explanations. We build upon variational autoencoders a principled way of obtaining counterfactuals: working in the latent space leads to a natural notion of plausibility of explanations. We finally introduce a variant of the classic loss for VAE training that improves their performance in our specific structured context. These provide the foundations of CF-OPT, a first-order optimization algorithm that can find counterfactual explanations for a broad class of structured learning architectures. Our numerical results show that both close and plausible explanations can be obtained for problems from the recent literature.

arxiv情報

著者 Germain Vivier-Ardisson,Alexandre Forel,Axel Parmentier,Thibaut Vidal
発行日 2024-06-03 15:07:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク