要約
VAE や拡散モデルなどの深層生成モデルは、潜在変数を活用してデータ分布を学習し、高品質のサンプルを生成することにより、さまざまな生成タスクを進化させてきました。
説明可能な AI の分野では機械学習モデルの解釈が進歩していますが、生成モデルの潜在変数を理解することは依然として困難です。
この論文では、深層生成モデル内の潜在変数の意味的に意味のある説明を自動的に生成するフレームワークである LatentExplainer を紹介します。
LatentExplainer は、潜在変数の意味の推論、帰納的バイアスによる説明の調整、さまざまな程度の説明可能性の処理という 3 つの主要な課題に取り組んでいます。
このフレームワークは、潜在変数を摂動させ、生成されたデータの変化を解釈することにより、データ生成プロセスを理解して制御する体系的なアプローチを提供し、深い生成モデルの透明性と解釈可能性を高めます。
私たちは、いくつかの実世界および合成データセットで提案手法を評価し、その結果、潜在変数の高品質な説明を生成する際に優れたパフォーマンスを実証しました。
要約(オリジナル)
Deep generative models like VAEs and diffusion models have advanced various generation tasks by leveraging latent variables to learn data distributions and generate high-quality samples. Despite the field of explainable AI making strides in interpreting machine learning models, understanding latent variables in generative models remains challenging. This paper introduces LatentExplainer, a framework for automatically generating semantically meaningful explanations of latent variables in deep generative models. LatentExplainer tackles three main challenges: inferring the meaning of latent variables, aligning explanations with inductive biases, and handling varying degrees of explainability. By perturbing latent variables and interpreting changes in generated data, the framework provides a systematic approach to understanding and controlling the data generation process, enhancing the transparency and interpretability of deep generative models. We evaluate our proposed method on several real-world and synthetic datasets, and the results demonstrate superior performance in generating high-quality explanations of latent variables.
arxiv情報
著者 | Mengdan Zhu,Raasikh Kanjiani,Jiahui Lu,Andrew Choi,Qirui Ye,Liang Zhao |
発行日 | 2024-06-28 13:19:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google