要約
ディープ ニューラル ネットワークの最適化層は、構造化学習において人気が高まっており、さまざまなアプリケーションの最先端技術を向上させています。
しかし、これらのパイプラインは、ディープ ニューラル ネットワークなどの非線形性の高い予測モデルと、通常は複雑なブラック ボックス ソルバーである最適化層という 2 つの不透明な層で構成されているため、解釈可能性に欠けています。
私たちの目標は、反事実の説明を提供することで、そのような手法の透明性を向上させることです。
私たちは、変分オートエンコーダーに基づいて、反事実を取得する原理的な方法を構築します。潜在空間での作業は、説明の妥当性に関する自然な概念につながります。
最後に、特定の構造化されたコンテキストでパフォーマンスを向上させる、VAE トレーニングの古典的な損失の変形を紹介します。
これらは、広範なクラスの構造化学習アーキテクチャに対する反事実の説明を見つけることができる一次最適化アルゴリズムである CF-OPT の基礎を提供します。
私たちの数値結果は、最近の文献の問題について、近くてもっともらしい説明が得られることを示しています。
要約(オリジナル)
Optimization layers in deep neural networks have enjoyed a growing popularity in structured learning, improving the state of the art on a variety of applications. Yet, these pipelines lack interpretability since they are made of two opaque layers: a highly non-linear prediction model, such as a deep neural network, and an optimization layer, which is typically a complex black-box solver. Our goal is to improve the transparency of such methods by providing counterfactual explanations. We build upon variational autoencoders a principled way of obtaining counterfactuals: working in the latent space leads to a natural notion of plausibility of explanations. We finally introduce a variant of the classic loss for VAE training that improves their performance in our specific structured context. These provide the foundations of CF-OPT, a first-order optimization algorithm that can find counterfactual explanations for a broad class of structured learning architectures. Our numerical results show that both close and plausible explanations can be obtained for problems from the recent literature.
arxiv情報
著者 | Germain Vivier–Ardisson,Alexandre Forel,Axel Parmentier,Thibaut Vidal |
発行日 | 2024-05-28 15:48:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google