Causal Flow-based Variational Auto-Encoder for Disentangled Causal Representation Learning

要約

解きほぐされた表現学習は、各次元が基礎となる生成要因に対応する低次元表現を学習することを目的としています。
この目的には変分自動エンコーダ (VAE) が広く使用されていますが、既存の手法のほとんどは要因間の独立性を前提としています。これは、要因が相互に依存し、因果関係を示す多くの現実世界のシナリオでは当てはまらない単純化です。
この制限を克服するために、我々は、因果フローを表現学習プロセスに統合し、より有意義で解釈可能なもつれ解除表現の学習を可能にする、新しい教師あり VAE フレームワークである Disentangled Causal variational Auto-Encoder (DCVAE) を提案します。
私たちは合成データセットと現実世界のデータセットの両方で DCVAE を評価し、因果関係の解きほぐしや介入実験における DCVAE の優れた能力を実証します。
さらに、DCVAE はさまざまな下流タスクにおいて最先端の手法を上回っており、要因間の真の因果構造を学習できる可能性を強調しています。

要約(オリジナル)

Disentangled representation learning aims to learn low-dimensional representations where each dimension corresponds to an underlying generative factor. While the Variational Auto-Encoder (VAE) is widely used for this purpose, most existing methods assume independence among factors, a simplification that does not hold in many real-world scenarios where factors are often interdependent and exhibit causal relationships. To overcome this limitation, we propose the Disentangled Causal Variational Auto-Encoder (DCVAE), a novel supervised VAE framework that integrates causal flows into the representation learning process, enabling the learning of more meaningful and interpretable disentangled representations. We evaluate DCVAE on both synthetic and real-world datasets, demonstrating its superior ability in causal disentanglement and intervention experiments. Furthermore, DCVAE outperforms state-of-the-art methods in various downstream tasks, highlighting its potential for learning true causal structures among factors.

arxiv情報

著者 Di Fan,Yannian Kou,Chuanhou Gao
発行日 2024-12-30 14:09:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ME パーマリンク