要約
ますます複雑になるディープ モデルの採用により、これらのモデルがどのように予測を行うかについての洞察に対する緊急のニーズが高まっています。
反事実的な説明は、実践者に実用的な説明を提供するための強力なツールとなります。
これまで、反事実の説明方法は、生成モデルの潜在空間を横断することによって設計されてきました。
しかし、これらの潜在空間は通常大幅に単純化されており、データ分散の複雑さのほとんどは潜在埋め込みではなくデコーダーに含まれています。
したがって、非線形デコーダを考慮せずに潜在空間を素朴に横断すると、不自然な反事実の軌跡が生じる可能性があります。
精査のもと、デコーダと分類器を介して引き戻されたリーマン計量を使用して得られた反事実的な説明を導入します。
このメトリクスは、データの複雑な幾何学的構造と学習された表現に関する情報をエンコードし、現実世界の表形式データセットでの実験で実証されたように、忠実度の高い堅牢な反事実軌跡を取得できるようにします。
要約(オリジナル)
The adoption of increasingly complex deep models has fueled an urgent need for insight into how these models make predictions. Counterfactual explanations form a powerful tool for providing actionable explanations to practitioners. Previously, counterfactual explanation methods have been designed by traversing the latent space of generative models. Yet, these latent spaces are usually greatly simplified, with most of the data distribution complexity contained in the decoder rather than the latent embedding. Thus, traversing the latent space naively without taking the nonlinear decoder into account can lead to unnatural counterfactual trajectories. We introduce counterfactual explanations obtained using a Riemannian metric pulled back via the decoder and the classifier under scrutiny. This metric encodes information about the complex geometric structure of the data and the learned representation, enabling us to obtain robust counterfactual trajectories with high fidelity, as demonstrated by our experiments in real-world tabular datasets.
arxiv情報
著者 | Paraskevas Pegios,Aasa Feragen,Andreas Abildtrup Hansen,Georgios Arvanitidis |
発行日 | 2024-11-04 16:49:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google