要約
反事実的な説明は、さまざまなブラックボックスモデルの人間の解釈可能な説明を作成するために成功裏に適用されています。
これらは、画像ドメインのタスクに便利です。このタスクでは、説明の品質は、生成モデルの最近の進歩から利益をもたらします。
反事実的な説明は分類モデルに広く適用されてきましたが、回帰タスクへの適用は未脱カタリングのままです。
拡散ベースの生成モデルを使用して画像回帰タスクの反事実的な説明を作成して、スパースと品質の課題に対処するための2つの方法を提示します。1)1つはピクセル空間で直接動作する拡散確率モデルに基づいています。
どちらも、Celeba-HQで現実的でセマンティックでスムーズな反事実を生成し、合成データセットを生み出し、回帰モデルの意思決定プロセスに関する簡単に解釈可能な洞察を提供し、偽の相関を明らかにします。
回帰反事実の場合、機能の変化は予測値の領域に依存することがわかります。
予測値の大幅な変化には大きなセマンティックの変更が必要であり、分類子よりもまばらな反事実を見つけるのが難しくなります。
さらに、ピクセル空間反事実はよりまばらであり、潜在的な空間の事実はより高い品質であり、より大きなセマンティックの変化を可能にします。
要約(オリジナル)
Counterfactual explanations have been successfully applied to create human interpretable explanations for various black-box models. They are handy for tasks in the image domain, where the quality of the explanations benefits from recent advances in generative models. Although counterfactual explanations have been widely applied to classification models, their application to regression tasks remains underexplored. We present two methods to create counterfactual explanations for image regression tasks using diffusion-based generative models to address challenges in sparsity and quality: 1) one based on a Denoising Diffusion Probabilistic Model that operates directly in pixel-space and 2) another based on a Diffusion Autoencoder operating in latent space. Both produce realistic, semantic, and smooth counterfactuals on CelebA-HQ and a synthetic data set, providing easily interpretable insights into the decision-making process of the regression model and reveal spurious correlations. We find that for regression counterfactuals, changes in features depend on the region of the predicted value. Large semantic changes are needed for significant changes in predicted values, making it harder to find sparse counterfactuals than with classifiers. Moreover, pixel space counterfactuals are more sparse while latent space counterfactuals are of higher quality and allow bigger semantic changes.
arxiv情報
著者 | Trung Duc Ha,Sidney Bender |
発行日 | 2025-03-26 14:42:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google